JP2022097269A - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP2022097269A
JP2022097269A JP2020210750A JP2020210750A JP2022097269A JP 2022097269 A JP2022097269 A JP 2022097269A JP 2020210750 A JP2020210750 A JP 2020210750A JP 2020210750 A JP2020210750 A JP 2020210750A JP 2022097269 A JP2022097269 A JP 2022097269A
Authority
JP
Japan
Prior art keywords
information
information processing
child
voice
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020210750A
Other languages
Japanese (ja)
Inventor
祥太 宇都
Shota Uto
智 坂口
Satoshi Sakaguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Unicharm Corp
Original Assignee
Unicharm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Unicharm Corp filed Critical Unicharm Corp
Priority to JP2020210750A priority Critical patent/JP2022097269A/en
Priority to CN202111432224.6A priority patent/CN114648995A/en
Publication of JP2022097269A publication Critical patent/JP2022097269A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/003Changing voice quality, e.g. pitch or formants
    • G10L21/007Changing voice quality, e.g. pitch or formants characterised by the process used
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/635Filtering based on additional data, e.g. user or group profiles
    • G06F16/636Filtering based on additional data, e.g. user or group profiles by using biological or physiological data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/638Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Child & Adolescent Psychology (AREA)
  • Physiology (AREA)
  • Psychiatry (AREA)
  • Hospice & Palliative Care (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

To provide an appropriate voice for a subject.SOLUTION: An information processing device includes an acquiring unit for acquiring detection information detected by detection means for detecting a state of a subject in a state to be responded to by a responder and a providing unit for providing speech information on speech for guiding the subject to a predetermined state in accordance with the detection information.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing apparatus, an information processing method and an information processing program.

従来、母親や、父親といった親の音声を変換して胎動のリズムに合わせた音を乳幼児等の子供に聞かせる技術が提案されている。 Conventionally, there have been proposed techniques for converting the voices of parents such as mothers and fathers so that children such as infants can hear sounds that match the rhythm of fetal movements.

特開2000-259199号公報Japanese Unexamined Patent Publication No. 2000-259199 特許第4482624号Patent No. 4482624

しかしながら、上記の従来技術では、母親や、父親といった親の音声を変換して胎動のリズムに合わせた音を子供に聞かせるに過ぎないため、子供にとって適切な音声を提供することができない場合がある。 However, in the above-mentioned conventional technique, it may not be possible to provide an appropriate voice for the child because the voice of the parent such as the mother or the father is only converted and the sound that matches the rhythm of the fetal movement is heard by the child. be.

本願は、上記に鑑みてなされたものであって、対象者に対して適切な音声を提供することを目的とする。 The present application has been made in view of the above, and an object thereof is to provide an appropriate voice to a subject.

本願に係る情報処理装置は、対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得する取得部と、前記検知情報に応じた前記対象者を所定の状態に誘導するための発話に関する発話情報を提供する提供部とを備えることを特徴とする情報処理装置。 The information processing apparatus according to the present application puts the acquisition unit that acquires the detection information detected by the detection means that detects the state of the target person corresponding to the corresponding person and the target person according to the detection information into a predetermined state. An information processing device including a providing unit that provides utterance information regarding utterances for guidance.

実施形態の一態様によれば、対象者に対して適切な音声を提供することができる。 According to one aspect of the embodiment, it is possible to provide an appropriate voice to the subject.

図1は、第1の実施形態に係る情報処理装置が実行する提供処理の一例を示す図である。FIG. 1 is a diagram showing an example of a provision process executed by the information processing apparatus according to the first embodiment. 図2は、第1の実施形態に係る情報処理装置の構成の一例を示す図である。FIG. 2 is a diagram showing an example of the configuration of the information processing apparatus according to the first embodiment. 図3は、第1の実施形態に係る推定情報記憶部の一例を示す図である。FIG. 3 is a diagram showing an example of an estimated information storage unit according to the first embodiment. 図4は、第1の実施形態に係る発話情報記憶部の一例を示す図である。FIG. 4 is a diagram showing an example of the utterance information storage unit according to the first embodiment. 図5は、第1の実施形態に係る音声情報記憶部の一例を示す図である。FIG. 5 is a diagram showing an example of a voice information storage unit according to the first embodiment. 図6は、第1の実施形態に係る情報処理装置が実行する提供処理の流れの一例を示すシーケンス図である。FIG. 6 is a sequence diagram showing an example of a flow of provision processing executed by the information processing apparatus according to the first embodiment. 図7は、第2の実施形態に係る情報処理装置が実行する提供処理の一例を示す図である。FIG. 7 is a diagram showing an example of the provision process executed by the information processing apparatus according to the second embodiment. 図8は、第2の実施形態に係る情報処理装置が実行する提供処理の流れの一例を示すシーケンス図である。FIG. 8 is a sequence diagram showing an example of a flow of provision processing executed by the information processing apparatus according to the second embodiment. 図9は、第3の実施形態に係る情報処理装置が実行する提供処理の一例を示す図である。FIG. 9 is a diagram showing an example of the provision process executed by the information processing apparatus according to the third embodiment. 図10は、第3の実施形態に係る情報処理装置が実行する提供処理の流れの一例を示すシーケンス図である。FIG. 10 is a sequence diagram showing an example of a flow of provision processing executed by the information processing apparatus according to the third embodiment. 図11は、変形例に係る情報処理装置が実行する提供処理の一例を示す図である。FIG. 11 is a diagram showing an example of the provision process executed by the information processing apparatus according to the modified example. 図12は、変形例に係る情報処理装置が実行する提供処理の一例を示す図である。FIG. 12 is a diagram showing an example of the provision process executed by the information processing apparatus according to the modified example. 図13は、変形例に係る情報処理装置が実行する提供処理の一例を示す図である。FIG. 13 is a diagram showing an example of the provision process executed by the information processing apparatus according to the modified example. 図14は、ハードウェア構成の一例を示す図である。FIG. 14 is a diagram showing an example of a hardware configuration.

本明細書及び添付図面の記載により、少なくとも以下の事項が明らかとなる。 The description of this specification and the accompanying drawings will clarify at least the following matters.

対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得する取得部と、前記検知情報に応じた前記対象者を所定の状態に誘導するための発話に関する発話情報を提供する提供部とを備えることを特徴とする情報処理装置。 The acquisition unit that acquires the detection information detected by the detection means that detects the state of the target person to be dealt with by the responder, and the utterance information related to the utterance for guiding the target person to a predetermined state according to the detection information. An information processing device characterized by comprising a providing unit that provides.

このような情報処理装置によれば、例えば、父親、母親といった親や、保母や、乳母等の対応者によって対応される対象者である新生児や、乳幼児等の子供の状態を検知する検知手段によって検知された検知情報を取得する。ここでいう子供の状態とは、例えば、心理的な状態や、体調に関する状態や、周囲の環境に関する状態等である。例えば、情報処理装置は、検知情報として、子供の泣き声といった音声を取得する。 According to such an information processing device, for example, by a detection means for detecting the state of a parent such as a father or a mother, a newborn baby who is a target person to be dealt with by a childcare worker, a nanny or the like, or a child such as an infant. Acquire the detected detection information. The state of the child referred to here is, for example, a psychological state, a state related to physical condition, a state related to the surrounding environment, and the like. For example, the information processing device acquires a voice such as a child's cry as detection information.

そして、情報処理装置は、例えば、子供の泣き声に応じた子供を泣き止ませるといった状態に誘導するための発話情報を提供する。例えば、情報処理装置は、発話情報をスマートスピーカ等のスピーカに提供する。そして、スピーカは、子供に対して、発話情報を音声として出力する。これにより、情報処理装置は、対象者に対して適切な音声を提供することができる。 Then, the information processing device provides utterance information for guiding the child to a state of stopping crying in response to the crying voice of the child, for example. For example, the information processing device provides utterance information to a speaker such as a smart speaker. Then, the speaker outputs the utterance information as voice to the child. Thereby, the information processing apparatus can provide an appropriate voice to the target person.

例えば、子供を泣き止ませる方法として、親によって利用されるスマートフォン等の端末装置に子供の泣き止ませ方に関するコンテンツを提供する方法も有り得る。しかしながら、一般に、育児で忙しい親は、端末装置を閲覧する余裕がない場合が多い。また、育児で忙しい親の場合、端末装置を常時、手に持ちながら行動することが必要となり、子供及び親ともに事故等に遭遇する危険性が高まる恐れがある。そのため、情報処理装置は、音声を用いて、子供を泣き止ませるための発話情報を提供することで、上記課題を解決することができる。 For example, as a method of stopping a child from crying, there may be a method of providing contents related to how to stop the child from crying to a terminal device such as a smartphone used by a parent. However, in general, parents who are busy raising children often cannot afford to browse the terminal device. In addition, for parents who are busy raising children, it is necessary to always hold the terminal device in their hands while acting, and there is a risk that both the child and the parent will encounter an accident or the like. Therefore, the information processing apparatus can solve the above-mentioned problem by providing the utterance information for stopping the child from crying by using the voice.

また、親にとって子供がどのような原因で泣いているのかわからない場合がある。例えば、親は、育児中に子供が泣いている場合、子供が排便をしたためおむつの中に不快感を感じ泣いているのか、単純に泣いているのか、ぐずり泣きなのか等を瞬時に判断しなくてはならない。例えば、子供が泣いている原因と、子供に対して行なわれた対応とに齟齬が生じる場合、子供が泣き止まないことがある。例えば、子供が空腹であるために泣いている場合、おむつを交換したとしても、泣き止まないことがある。例えば、子供が眠くて泣いている場合、親が子守歌を歌ってあげることで、子供を安心させて眠りへと誘導できるときがある。一方で、子供の眠いといった感情が強い場合、子守歌を歌うといった対応を直接的に行わずに、一旦待機した後、そのまま寝かせた方がよいときもある。このように、子供が泣いている場合に、泣き止ませることを目的とした対応が適切な対応ではない場合が有り得る。 Also, parents may not know why their child is crying. For example, if a child is crying while raising a child, the parent can instantly determine whether the child is crying because he / she feels uncomfortable in the diaper, is simply crying, or is crying. Must-have. For example, if there is a discrepancy between the cause of the child's crying and the response taken to the child, the child may not stop crying. For example, if a child is crying because he is hungry, he may not stop crying even if he changes diapers. For example, if the child is sleepy and crying, the parent may sing a lullaby to reassure the child and lead him to sleep. On the other hand, when a child has strong emotions such as sleepiness, it may be better to wait for a while and then let him lie down without directly taking measures such as singing a lullaby. In this way, when a child is crying, the response aimed at stopping crying may not be appropriate.

また、子供への声がけは親が行うが、現在、核家族化が進んでいることで、祖父や、祖母による声がけといった様々な音声を子供が聞く機会が減少しつつある。また、核家族である場合、声を聞くためには、親がしゃべり続けなければならず、親にとって常に乳幼児に語りかけることは身体的及び精神的な負担になりやすい場合がある。 In addition, parents speak to their children, but with the progress of nuclear families, children are less likely to hear various voices such as voices from grandfathers and grandmothers. Also, in the case of a nuclear family, parents must continue to speak in order to hear the voice, and it may be a physical and mental burden for parents to always talk to infants.

また、子供にとっては、身の周りに生じる様々な事象が新しい事象となるため、恐怖心を感じ、ストレスを覚えて泣いてしまう場合がある。一方、子供の周りに生じる事象は、親にとっては当たり前の事象であるため、子供がなぜ泣いているかを理解することができない場合が有り得る。例えば、新生児を自分の家で育てる親を想定した場合、新生児にとっては家にあるものは全て新しいものであるのに対し、親にとっては自分の家であるため慣れ親しんだものである。このように、親は、家の環境が新生児にどのような刺激を与えているのか気が付きにくい場合が有り得る。 In addition, for children, various events that occur around them become new events, which may cause fear, stress, and crying. On the other hand, the events that occur around the child are commonplace for parents, so it may not be possible to understand why the child is crying. For example, assuming a parent raising a newborn baby in his or her own home, everything in the home is new to the newborn, whereas it is familiar to the parent because it is their own home. Thus, parents may find it difficult to notice how the home environment is stimulating the newborn.

このような場合、育児で忙しい親がストレスを感じる恐れがあり、親の身体的及び精神的な負担がより増すことが考えられる。そのため、情報処理装置は、子供の感情や、状況を示す子供の状態を推定することで、子供の状態を所定の状態に誘導するための発話情報を提供する。例えば、情報処理装置は、子供が泣いている状態である場合、子供を泣き止ませるための発話情報を提供する。このように、情報処理装置は、スピーカを介して、子供に発話情報を音声として出力するため、単純に子供を泣き止ませるだけではなく、子供をあやすといった親が行う行動と類似する効果を実現する。 In such cases, parents who are busy raising children may feel stress, which may increase the physical and mental burden on the parents. Therefore, the information processing device provides utterance information for inducing the child's state to a predetermined state by estimating the child's emotion and the state of the child indicating the situation. For example, the information processing device provides speech information for stopping a child from crying when the child is in a crying state. In this way, the information processing device outputs the utterance information to the child as voice via the speaker, so that not only the child is simply stopped crying, but also an effect similar to the action performed by the parent such as comforting the child is realized. do.

一般に、子供が泣き止む音楽や、泣き止む音といった音は、子供の気分が心地よくなって泣き止んでいるわけではなく、子供がびっくりして泣き止ませていることが知られている。また、従来、子供をあやしたり、泣き止ませたりするために、センサによって検知されたセンサ情報に基づいて、おもちゃ等を動作させ、おもちゃに内蔵されたスピーカから音声を出力する技術が知られている。しかしながら、このような対処方法では、適切な育児又は養育を子供に対して提供できていると必ずしも言えない場合がある。例えば、単純に、センサによるセンサ情報に応じて自動的に音声を出力するおもちゃ等を動作させるサービスは、子供に対して、所定の状態に誘導するための音声とは限らず、単一の音声を機械的に出力しているに過ぎない。このため、単一の音声を機械的に出力するような従来技術では、適切な育児又は養育を子供に対して提供できているとは限らない。また、子供から検知された検知情報を単に、親に提供するだけでは、適切な養育を行うことができないばかりか、親のストレスを増長させてしまう場合が有り得る。 In general, it is known that the music that a child stops crying and the sound that the child stops crying do not make the child feel comfortable and stop crying, but the child is surprised and stops crying. In addition, conventionally, a technique has been known in which a toy or the like is operated based on sensor information detected by a sensor and a sound is output from a speaker built in the toy in order to make a child cry or stop crying. There is. However, it may not always be possible to say that such a coping method can provide appropriate childcare or childcare to the child. For example, a service that simply operates a toy or the like that automatically outputs voice according to sensor information from a sensor is not limited to voice for guiding a child to a predetermined state, but a single voice. Is only output mechanically. For this reason, conventional techniques such as mechanically outputting a single voice may not always be able to provide appropriate childcare or childcare to a child. In addition, simply providing the detection information detected from the child to the parent may not only prevent proper care but also increase the stress of the parent.

一般に、子供に対して育児又は養育する親が、直接的に子供に直接的に対応するのが望ましい。例えば、親は、子供が泣いている場合、子供を抱っこしながらあやす。このときに、親は、子供に対して、聴覚的な刺激(例えば、親のあやす音声)のみならず、視覚的な刺激(例えば、親の顔)や、触覚的な刺激(例えば、親の体温又は親の子供を触る感触)を感じさせる。これにより、複数の感覚を統合させるような対応を実現することで、子供の脳や、心の発達を促進することができると考えられている。 In general, it is desirable for parents who care for or care for their children to deal directly with their children. For example, when a child is crying, the parent comforts the child while hugging it. At this time, the parent gives the child not only an auditory stimulus (eg, the parent's soothing voice) but also a visual stimulus (eg, the parent's face) and a tactile stimulus (eg, the parent's). Feel the body temperature or the feeling of touching the parent's child). It is thought that this can promote the development of the child's brain and mind by realizing a response that integrates multiple senses.

そこで、情報提供装置は、子供が泣いているといった子供の状態を推定した上で、泣いている子供に対して適切な音声を提供することで、適切な育児及び養育を実現することを可能とする。このように、情報提供装置は、親に対して共同養育者といった役割を演じることで、親の育児及び養育の援助を実現する。 Therefore, the information providing device makes it possible to realize appropriate childcare and childcare by estimating the child's condition such as the child crying and then providing an appropriate voice to the crying child. do. In this way, the information providing device realizes parental child-rearing and child-rearing support by playing a role such as a co-caregiver for the parent.

これにより、情報提供装置は、親の身体的及び精神的な負担を軽減することができる。例えば、情報提供装置は、養育における育児負荷の軽減や、うまく子供を泣き止ませることができなといったストレスの軽減を実現することができる。このように、情報提供装置は、親による育児及び養育を容易にすることができる。 As a result, the information providing device can reduce the physical and mental burden on the parent. For example, the information providing device can reduce the burden of child-rearing in child-rearing and reduce the stress of not being able to stop the child from crying well. In this way, the information providing device can facilitate parental child-rearing and child-rearing.

また、情報処理装置は、前記検知情報に基づいて、前記対象者の感情に関する情報を推定し、推定された対象者の感情に応じて、前記対象者を所定の状態に誘導するための発話情報を提供する。 Further, the information processing device estimates information about the emotion of the target person based on the detection information, and utterance information for guiding the target person to a predetermined state according to the estimated emotion of the target person. I will provide a.

このような情報処理装置によれば、検知情報に基づいて、対象者の感情に関する情報を推定し、推定された対象者の感情に応じて、対象者を所定の状態に誘導するための発話情報を提供するための発話情報を提供するため、対象者に対して適切な音声を提供することができる。 According to such an information processing device, information on the emotion of the subject is estimated based on the detection information, and speech information for guiding the subject to a predetermined state according to the estimated emotion of the subject. Since the spoken information for providing the information is provided, it is possible to provide an appropriate voice to the target person.

また、情報処理装置は、前記所定の状態として、落ち着いた状態に誘導するための発話情報を提供する。 In addition, the information processing apparatus provides utterance information for inducing a calm state as the predetermined state.

このような情報処理装置によれば、所定の状態として、落ち着いた状態に誘導するための発話情報を提供するため、対象者に対して適切な音声を提供することができる。 According to such an information processing device, since the utterance information for guiding to a calm state is provided as a predetermined state, it is possible to provide an appropriate voice to the target person.

また、情報処理装置は、前記検知情報に応じた前記対象者を前記所定の状態に誘導するための発話情報を提供しつつ、前記対応者に対して、前記対象者に対する提案行動に関する情報を提供する。 Further, the information processing apparatus provides the responder with information on the proposed behavior for the target person, while providing the utterance information for guiding the target person to the predetermined state according to the detection information. do.

このような情報処理装置によれば、検知情報に応じた対象者を所定の状態に誘導するための発話情報を提供しつつ、対応者に対して、対象者に対する提案行動に関する情報を提供するため、対応者に対して、対象者に関する適切な行動を提案することができる。 According to such an information processing device, in order to provide the responder with information on the proposed behavior to the target person while providing the spoken information for guiding the target person to a predetermined state according to the detection information. , Can propose appropriate actions regarding the target person to the responder.

また、情報処理装置は、前記検知手段によって検知された対応者に関する検知情報を取得し、前記検知情報に応じた前記対応者を所定の状態に誘導するための発話情報を提供する。 Further, the information processing apparatus acquires the detection information about the corresponding person detected by the detecting means, and provides the utterance information for guiding the corresponding person to a predetermined state according to the detected information.

このような情報処理装置によれば、検知手段によって検知された対応者に関する検知情報を取得し、検知情報に応じた対応者を所定の状態に誘導するための発話情報を提供するため、対応者に対して適切な音声を提供することができる。 According to such an information processing device, the responder obtains the detection information about the responder detected by the detection means and provides the utterance information for guiding the responder according to the detection information to a predetermined state. Appropriate voice can be provided to.

また、情報処理装置は、前記対応者に関する検知情報に基づいて推定された前記対応者の感情が怒りの感情を示す場合、前記対象者を所定の状態に誘導するための発話情報を提供する。 Further, the information processing apparatus provides utterance information for guiding the target person to a predetermined state when the feeling of the corresponding person, which is estimated based on the detection information about the corresponding person, shows an emotion of anger.

このような情報処理装置によれば、対応者に関する検知情報に基づいて推定された対応者の感情が怒りの感情を示す場合、対象者を所定の状態に誘導するための発話情報を提供するため、対象者に対して適切な音声を提供することができる。 According to such an information processing device, when the emotion of the responder estimated based on the detection information about the responder shows the emotion of anger, the voice information for guiding the subject to a predetermined state is provided. , Appropriate voice can be provided to the target person.

また、情報処理装置は、前記対応者に関する検知情報に基づいて推定された前記対応者の感情が怒りの感情を示す場合、前記対応者を所定の状態に誘導するための発話情報を提供する。 Further, the information processing apparatus provides utterance information for guiding the correspondent to a predetermined state when the emotion of the correspondent estimated based on the detection information about the correspondent indicates an angry emotion.

このような情報処理装置によれば、対応者に関する検知情報に基づいて推定された対応者の感情が怒りの感情を示す場合、対応者を所定の状態に誘導するための発話情報を提供するため、対応者に対して適切な音声を提供することができる。 According to such an information processing device, when the emotion of the responder estimated based on the detection information about the responder shows the emotion of anger, the utterance information for guiding the responder to a predetermined state is provided. , Appropriate voice can be provided to the responder.

また、情報処理装置は、前記対応者に関する検知情報に基づいて推定された前記対応者の行動に応じて、前記対象者を所定の状態に誘導するための発話情報を提供する。 Further, the information processing apparatus provides utterance information for guiding the target person to a predetermined state according to the behavior of the corresponding person estimated based on the detection information about the corresponding person.

このような情報処理装置によれば、対応者に関する検知情報に基づいて推定された対応者の行動に応じて、対象者を所定の状態に誘導するための発話情報を提供するため、対象者に対して適切な音声を提供することができる。 According to such an information processing device, in order to provide speech information for guiding the subject to a predetermined state according to the behavior of the responder estimated based on the detection information about the responder, the subject is provided with speech information. On the other hand, it is possible to provide appropriate voice.

また、情報処理装置は、前記対象者に関する検知情報に基づいて推定された前記対象者の行動に応じて、前記対象者を所定の状態に誘導するための発話情報を提供する。 Further, the information processing apparatus provides utterance information for guiding the target person to a predetermined state according to the behavior of the target person estimated based on the detection information about the target person.

このような情報処理装置によれば、対象者に関する検知情報に基づいて推定された対象者の行動に応じて、対象者を所定の状態に誘導するための発話情報を提供するため、対応者に対して適切な音声を提供することができる。 According to such an information processing device, in order to provide speech information for guiding the target person to a predetermined state according to the behavior of the target person estimated based on the detection information about the target person, the responder is informed. On the other hand, it is possible to provide appropriate voice.

また、情報処理装置は、前記発話情報として、前記対象者を褒めるための発話に関する発話情報を提供する。 Further, the information processing apparatus provides the utterance information related to the utterance for complimenting the target person as the utterance information.

このような情報処理装置によれば、発話情報として、対象者を褒めるための発話に関する発話情報を提供するため、対象者に対して適切な音声を提供することができる。 According to such an information processing device, since the utterance information related to the utterance for complimenting the target person is provided as the utterance information, it is possible to provide an appropriate voice to the target person.

また、情報処理装置は、前記検知手段によって検知された対象者に関する検知情報と、前記対応者に関する検知情報とを取得し、前記対象者に関する検知情報と、前記対応者に関する検知情報との組合せに応じた前記対象者又は前記対応者を所定の状態に誘導するための発話情報を提供する。 Further, the information processing apparatus acquires the detection information about the target person detected by the detection means and the detection information about the corresponding person, and combines the detection information about the target person and the detection information about the corresponding person. It provides utterance information for guiding the target person or the corresponding person who responded to a predetermined state.

このような情報処理装置によれば、検知手段によって検知された対象者に関する検知情報と、対応者に関する検知情報とを取得し、対象者に関する検知情報と、対応者に関する検知情報との組合せに応じた対象者又は対応者を所定の状態に誘導するための発話情報を提供するため、対象者又は対応者に対して適切な音声を提供することができる。 According to such an information processing device, the detection information about the target person detected by the detection means and the detection information about the responder are acquired, and the combination of the detection information about the target person and the detection information about the responder is supported. In order to provide speech information for guiding the target person or the responder to a predetermined state, it is possible to provide an appropriate voice to the target person or the responder.

また、情報処理装置は、前記検知手段によって検知された対象者の音声に関する音声情報を取得し、前記音声情報に応じた前記対象者を前記所定の状態に誘導するための発話情報を提供する。 Further, the information processing apparatus acquires voice information related to the voice of the target person detected by the detection means, and provides utterance information for guiding the target person to the predetermined state according to the voice information.

このような情報処理装置によれば、検知手段によって検知された対象者の音声に関する音声情報を取得し、音声情報に応じた対象者を所定の状態に誘導するための発話情報を提供するため、対象者に対して適切な音声を提供することができる。 According to such an information processing device, in order to acquire voice information about the voice of the target person detected by the detection means and to provide utterance information for guiding the target person to a predetermined state according to the voice information. Appropriate voice can be provided to the target person.

また、情報処理装置は、前記検知手段によって検知された対応者の音声情報を取得し、前記音声情報に応じた前記対応者を前記所定の状態に誘導するための発話情報を提供する。 Further, the information processing apparatus acquires the voice information of the corresponding person detected by the detecting means, and provides the utterance information for guiding the corresponding person to the predetermined state according to the voice information.

このような情報処理装置によれば、検知手段によって検知された対応者の音声情報を取得し、音声情報に応じた対応者を所定の状態に誘導するための発話情報を提供するため、対応者に対して適切な音声を提供することができる。 According to such an information processing device, the responder obtains the voice information of the responder detected by the detection means and provides the utterance information for guiding the responder according to the voice information to a predetermined state. Appropriate voice can be provided to.

また、情報処理装置は、前記検知手段によって検知された対象者の生体情報を取得し、前記生体情報に応じた前記対象者を前記所定の状態に誘導するための発話情報を提供する。 Further, the information processing apparatus acquires the biological information of the target person detected by the detection means, and provides the utterance information for guiding the target person to the predetermined state according to the biological information.

このような情報処理装置によれば、検知手段によって検知された対象者の生体情報を取得し、生体情報に応じた対象者を所定の状態に誘導するための発話情報を提供するため、対象者に対して適切な音声を提供することができる。 According to such an information processing device, in order to acquire the biological information of the target person detected by the detection means and to provide the utterance information for guiding the target person to a predetermined state according to the biological information, the target person Appropriate voice can be provided to.

また、情報処理装置は、前記検知手段によって検知された対応者の生体情報を取得し、前記生体情報に応じた前記対応者を前記所定の状態に誘導するための発話情報を提供する。 Further, the information processing apparatus acquires the biological information of the corresponding person detected by the detecting means, and provides the utterance information for guiding the corresponding person to the predetermined state according to the biological information.

このような情報処理装置によれば、検知手段によって検知された対応者の生体情報を取得し、生体情報に応じた対応者を所定の状態に誘導するための発話情報を提供するため、対応者に対して適切な音声を提供することができる。 According to such an information processing device, the responder obtains the biometric information of the responder detected by the detection means and provides the utterance information for guiding the responder according to the biometric information to a predetermined state. Appropriate voice can be provided to.

以下に、情報処理装置、情報処理方法及び情報処理プログラムを実施するための形態(以下、「実施形態」と記載する)の一例について図面を参照しつつ詳細に説明する。なお、この実施形態により情報処理装置、情報処理方法及び情報処理プログラムが限定されるものではない。また、以下の実施形態において同一の部位には同一の符号を付し、重複する説明は省略する。 Hereinafter, an example of an information processing apparatus, an information processing method, and an embodiment for implementing an information processing program (hereinafter, referred to as “embodiment”) will be described in detail with reference to the drawings. The information processing apparatus, information processing method, and information processing program are not limited by this embodiment. Further, in the following embodiments, the same parts are designated by the same reference numerals, and duplicate description will be omitted.

[1.第1の実施形態]
〔1-1.情報処理装置が示す提供処理の一例〕
図1を用いて、実施形態に係る情報処理装置100が実行する提供処理の一例について説明する。図1は、実施形態に係る情報処理装置100が実行する提供処理の一例を示す図である。
[1. First Embodiment]
[1-1. An example of the provision process indicated by the information processing device]
An example of the provision process executed by the information processing apparatus 100 according to the embodiment will be described with reference to FIG. FIG. 1 is a diagram showing an example of a provision process executed by the information processing apparatus 100 according to the embodiment.

図1に示すように、第1の実施形態に係る情報処理システム1は、スピーカ10と、情報処理装置100とを含む。スピーカ10及び情報処理装置100は、図示しない所定のネットワークを介して有線又は無線により通信可能に接続される。なお、図1に示す情報処理システム1には、複数台のスピーカ10や、複数台の情報処理装置100が含まれてもよい。 As shown in FIG. 1, the information processing system 1 according to the first embodiment includes a speaker 10 and an information processing device 100. The speaker 10 and the information processing apparatus 100 are connected so as to be communicable by wire or wirelessly via a predetermined network (not shown). The information processing system 1 shown in FIG. 1 may include a plurality of speakers 10 and a plurality of information processing devices 100.

第1の実施形態に係るスピーカ10は、音及び音声を集音したり、音、音声又は音楽を出力したりする情報処理装置であり、例えば、スマートスピーカ又はIoT(Internet of Things)機器等である。具体的には、スピーカ10は、周囲の音を取得するマイク等の入力装置と、任意の音を出力可能なスピーカ等の出力装置とを有する入出力装置である。 The speaker 10 according to the first embodiment is an information processing device that collects sound and voice and outputs sound, voice, or music, and is, for example, a smart speaker or an IoT (Internet of Things) device. be. Specifically, the speaker 10 is an input / output device having an input device such as a microphone for acquiring ambient sound and an output device such as a speaker capable of outputting arbitrary sound.

例えば、スピーカ10は、対象者又は対応者が発した音声を検知可能なマイク等の音センサにより実現される。また、スピーカ10は、情報処理装置100によって提供された発話情報を音声として対象者に対して出力する。なお、スピーカ10は、音声認識機能や、音声再生機能や、音声合成機能や、音声応答機能等を有する情報処理装置であってもよい。 For example, the speaker 10 is realized by a sound sensor such as a microphone that can detect a voice emitted by a target person or a corresponding person. Further, the speaker 10 outputs the utterance information provided by the information processing apparatus 100 to the target person as voice. The speaker 10 may be an information processing device having a voice recognition function, a voice reproduction function, a voice synthesis function, a voice response function, and the like.

第1の実施形態に係る情報処理装置100は、インターネット等の所定のネットワークを介して、各種の装置と通信可能な情報処理装置であり、例えば、サーバ装置又はクラウドシステム等により実現される。例えば、情報処理装置100は、インターネットを介して、他の各種装置と通信可能に接続される。 The information processing device 100 according to the first embodiment is an information processing device capable of communicating with various devices via a predetermined network such as the Internet, and is realized by, for example, a server device or a cloud system. For example, the information processing device 100 is communicably connected to various other devices via the Internet.

以下、図1を用いて、情報処理装置100による提供処理の一例を流れに沿って説明する。なお、以下の説明では、対象者が子供BA1であり、対象者を対応する対応者が、かかる子供BA1の母親PA1である例を挙げて説明する。 Hereinafter, an example of the provision process by the information processing apparatus 100 will be described along the flow with reference to FIG. 1. In the following description, an example will be given in which the subject is a child BA1 and the corresponding person corresponding to the subject is the mother PA1 of the child BA1.

図1の例では、情報処理装置100は、子供BA1が泣いた場合に、泣いているという子供BA1の行為、および、子供BA1がなぜ泣いているのかという原因等といった子供BA1の状態を推定する。そして、情報処理装置100は、推定結果に応じて、子供BA1を泣き止む状態に誘導するための発話情報を提供する。また、図1の例では、子供BA1は、おむつに排泄しており、感触が気持ち悪くて泣いているものとする。 In the example of FIG. 1, the information processing apparatus 100 estimates the state of the child BA1 such as the act of the child BA1 crying when the child BA1 cries, the cause of why the child BA1 is crying, and the like. .. Then, the information processing apparatus 100 provides utterance information for inducing the child BA1 to a state of stopping crying according to the estimation result. Further, in the example of FIG. 1, it is assumed that the child BA1 is excreted in a diaper and feels uncomfortable and is crying.

まず、図1に示すように、情報処理装置100は、音声情報を取得する(ステップS1)。例えば、スピーカ10は、子供BA1の泣き声に関する情報を取得する。そして、情報処理装置100は、スピーカ10から子供BA1の泣き声に関する情報を取得する。 First, as shown in FIG. 1, the information processing apparatus 100 acquires voice information (step S1). For example, the speaker 10 acquires information about the crying voice of the child BA1. Then, the information processing apparatus 100 acquires information about the crying voice of the child BA1 from the speaker 10.

続いて、情報処理装置100は、取得した音声に基づいて、子供BA1の状態を推定する(ステップS2)。例えば、情報処理装置100は、取得した音声が泣き声か否かを判定する。また、情報処理装置100は、音声が泣き声であった場合、子供BA1の泣き声を音声解析する。そして、情報処理装置100は、泣き声が示す特徴的な波形に基づいて、子供BA1の感情を推定する。ここで、情報処理装置100は、子供BA1の感情が不快であり、イライラしている又は悲しい気持ちであると推定するものとする。 Subsequently, the information processing apparatus 100 estimates the state of the child BA1 based on the acquired voice (step S2). For example, the information processing apparatus 100 determines whether or not the acquired voice is crying. Further, when the voice is a cry, the information processing apparatus 100 analyzes the cry of the child BA1 by voice. Then, the information processing apparatus 100 estimates the emotion of the child BA1 based on the characteristic waveform indicated by the crying voice. Here, it is assumed that the information processing apparatus 100 presumes that the emotion of the child BA1 is unpleasant, frustrated, or sad.

なお、上記推定処理は、音声情報を用いた各種公知の感情推定技術が採用可能である。例えば、音声情報が示す泣き声の周波数特性と、泣いている際の子供の感情との関係性を学習したニューラルネットワーク等の学習モデルにより実現される。かかる学習モデルは、音声情報を入力した際に、子供が感じていると推定される感情を示す情報を出力する。また、上記推定処理は、泣き声が示す周波数特性と、子供の感情とが対応付けられたテーブル等を用いることで実現されてもよい。 As the estimation process, various known emotion estimation techniques using voice information can be adopted. For example, it is realized by a learning model such as a neural network that learns the relationship between the frequency characteristics of crying voice information and the emotions of a child when crying. Such a learning model outputs information indicating emotions presumed to be felt by a child when voice information is input. Further, the estimation process may be realized by using a table or the like in which the frequency characteristic indicated by the crying voice and the emotion of the child are associated with each other.

そして、情報処理装置100は、発話情報をスピーカ10に提供する(ステップS3)。例えば、情報処理装置100は、推定された子供BA1の感情が不快であり、イライラしている又は悲しい気持ちである場合、子供BA1をあやすような発話内容「すぐにお母さんが取り替えるからねぇ」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供する。また、情報処理装置100は、発話情報に、子供BA1に出力する音声情報を含めてもよい。例えば、情報処理装置100は、子供BA1に出力する音声情報として、人工的な音声に関する情報を発話情報に含めて、かかる発話情報をスピーカ10に提供してもよい。 Then, the information processing apparatus 100 provides the utterance information to the speaker 10 (step S3). For example, when the estimated emotion of the child BA1 is unpleasant, frustrated or sad, the information processing apparatus 100 includes an utterance content "because the mother will replace it immediately" to ease the child BA1. Select utterance information. Then, the information processing apparatus 100 provides the selected utterance information to the speaker 10. Further, the information processing apparatus 100 may include voice information to be output to the child BA1 in the utterance information. For example, the information processing apparatus 100 may include artificial voice information in the utterance information as voice information to be output to the child BA1 and provide the utterance information to the speaker 10.

続いて、スピーカ10は、発話情報を音声として子供BA1に出力する(ステップS4)。例えば、スピーカ10は、「すぐにお母さんが取り替えるからねぇ」といった音声を子供BA1に対して出力する。 Subsequently, the speaker 10 outputs the utterance information as voice to the child BA1 (step S4). For example, the speaker 10 outputs a voice such as "Mother will replace it soon" to the child BA1.

また、スピーカ10は、予め情報処理装置100から母親PA1に対する発話情報が提供された場合には、子供BA1に対して上記音声を出力した後に、「おむつを取り替えたがっていますよ!」といった音声を母親PA1に対して出力する。この場合、スピーカ10は、指向性を有した音声を子供BA1又は母親PA1に出力することで、音声を出し分けることができる。 Further, when the information processing device 100 provides the speech information to the mother PA1 in advance, the speaker 10 outputs the above voice to the child BA1 and then outputs a voice such as "I want to change the diaper!". Output to mother PA1. In this case, the speaker 10 can output the sound having directivity to the child BA1 or the mother PA1.

他の例として、情報処理装置100は、おむつを準備することや、ミルク等の食事を準備すること等といった母親PA1が準備に時間がかかる対応である場合、音声を複数回、子供BA1に対して出力することで子供BA1をあやす時間を変更してもよい。例えば、母親PA1がおむつを準備するものとする。この場合、情報処理装置100は、スピーカ10に予め複数の発話情報を提供する。そして、スピーカ10は、「すぐにお母さんが取り替えるからねぇ」といった音声を子供BA1に対して出力する。また、スピーカ10は、所定の期間(例えば、数分)経過後、「今、お母さんがおむつを探しにいっているよ」といった音声を子供BA1に対して出力する。また、スピーカ10は、所定の期間(例えば、数分)経過後、「よしよし、元気だねー!」といったあやす内容を音声として子供BA1に対して出力する。 As another example, when the mother PA1 takes a long time to prepare, such as preparing a diaper or preparing a meal such as milk, the information processing apparatus 100 makes a voice multiple times to the child BA1. You may change the time to relax the child BA1 by outputting the information. For example, it is assumed that the mother PA1 prepares a diaper. In this case, the information processing apparatus 100 provides the speaker 10 with a plurality of utterance information in advance. Then, the speaker 10 outputs a voice such as "Mother will replace it soon" to the child BA1. Further, after a predetermined period (for example, several minutes) has elapsed, the speaker 10 outputs a voice such as "Mom is looking for a diaper" to the child BA1. Further, after a predetermined period (for example, several minutes) has elapsed, the speaker 10 outputs a comforting content such as "OK, I'm fine!" To the child BA1 as voice.

また、母親PA1がミルクを準備するものとする。この場合、情報処理装置100は、スピーカ10に予め複数の発話情報を提供する。そして、スピーカ10は、「おなかすいたね~!」といった音声を子供BA1に対して出力する。また、スピーカ10は、所定の期間(例えば、数分)経過後、「おいしいごはんが今できるよ~」といった音声を子供BA1に対して出力する。また、スピーカ10は、所定の期間(例えば、数分)経過後、「よしよし、もうすこしだよ!」といったあやす内容を音声として子供BA1に対して出力する。 Also, it is assumed that the mother PA1 prepares milk. In this case, the information processing apparatus 100 provides the speaker 10 with a plurality of utterance information in advance. Then, the speaker 10 outputs a voice such as "I'm hungry!" To the child BA1. Further, the speaker 10 outputs a voice such as "I can make delicious rice now" to the child BA1 after a predetermined period (for example, several minutes) has elapsed. Further, after a predetermined period (for example, several minutes) has elapsed, the speaker 10 outputs a comforting content such as "OK, it's a little more!" To the child BA1 as voice.

このように、情報処理装置100は、親が準備に時間がかかる対応である場合、スピーカ10に予め複数の発話情報を提供することで、子供に対してあやす時間を適宜長くするような音声を提供してもよい。 As described above, the information processing apparatus 100 provides the speaker 10 with a plurality of utterance information in advance when the parent takes a long time to prepare, so that the information processing device 100 can appropriately lengthen the time to care for the child. May be provided.

従来技術では、母親や、父親といった親の音声を変換して胎動のリズムに合わせた音を子供に聞かせるに過ぎないため、子供の状態に合わせた適切な音声を提供することができない場合があった。そこで、実施形態に係る情報処理装置100は、対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得し、検知情報に応じた対象者を所定の状態に誘導するための発話に関する発話情報を提供する。これにより、情報処理装置100は、従来の課題を解決する。このように、情報処理装置100は、対象者に対して適切な音声を提供することができる。 In the conventional technique, it may not be possible to provide an appropriate voice according to the child's condition because the child is only made to hear the sound that matches the rhythm of the fetal movement by converting the voice of the parent such as the mother or the father. there were. Therefore, the information processing apparatus 100 according to the embodiment acquires the detection information detected by the detection means for detecting the state of the target person corresponding to the corresponding person, and guides the target person according to the detection information to a predetermined state. Provide utterance information about the utterance to be done. Thereby, the information processing apparatus 100 solves the conventional problem. In this way, the information processing apparatus 100 can provide an appropriate voice to the target person.

このように、情報処理装置100は、育児に忙しい母親の手を煩わせることなく、音声により子供に対してあやすことが可能となる。また、情報処理装置100は、育児中に端末装置等を確認できない母親に対して、音声により育児のアドバイスを提供することが可能となる。これにより、情報処理装置100は、親の育児及び養育におけるストレスを低減することができる。 In this way, the information processing apparatus 100 can comfort the child by voice without bothering the mother who is busy raising children. In addition, the information processing device 100 can provide childcare advice by voice to a mother who cannot confirm the terminal device or the like during childcare. As a result, the information processing apparatus 100 can reduce stress in parental childcare and childcare.

また、情報処理装置100は、「おむつを取り替えて」といった推定された子供の感情の原因を示す情報を提供するので、親に対して、子供がなぜ泣いているかといった原因の解釈を容易にさせることができる。このように、情報処理装置100は、発話により原因を伝えることができない子供の気持ちの解釈を親に容易にさせることができるため、親のストレスを軽減することができる。 Further, since the information processing apparatus 100 provides information indicating the presumed cause of the child's emotions such as "changing the diaper", the parent can easily interpret the cause such as why the child is crying. be able to. As described above, the information processing apparatus 100 can easily allow the parent to interpret the feelings of the child who cannot convey the cause by utterance, so that the stress of the parent can be reduced.

また、現在では、核家族化が進んでいる家庭が多い。以前、拡大家族の場合では、父親が勤務等でいない場合には、母親が忙しいときに、母親の代わりに祖母が子供の面倒をみることがあった。また、母親では子供をあやせない場合には、母親の代わりに祖母があやすことで、子供が泣き止む場合があった。また、母親と、祖母とが交互に子供をあやすことで、子供が泣き止むことがあった。このように、以前では、母親に対して共同で育児及び養育する人がいたため、母親は、母親自身の感情のコントロールがしやすかった。 In addition, many households are now becoming nuclear families. Previously, in the case of extended families, when the father was not working, the grandmother would take care of the child instead of the mother when the mother was busy. In addition, when the mother could not care for the child, the grandmother took the place of the mother, and the child sometimes stopped crying. In addition, the mother and grandmother alternately comforted the child, which sometimes caused the child to stop crying. Thus, in the past, it was easier for mothers to control their own emotions because there were people who raised and raised children jointly with their mothers.

一方、現在では、父親が勤務等でいない場合には、母親が子供の面倒をみる場合が多い。このように、母親のみが育児及び養育を行わざるを得ない場合がある。そのため、母親の負担が以前よりも増すと考えられる。また、母親のみで子供の面倒をみるときには、子供は、母親が話し続けないと、何の音や、音声も聞かなくなってしまい、子供の脳や心の発達に良い影響を与えない可能性が有り得る。しかしながら、子供の発達を考慮して、母親が話し続けると、母親の負担がさらに増すこととなる。そこで、情報処理装置100は、母親の代わりに、スピーカ10を介して音声を子供に届けることで、共同養育者とした機能を提供することができる。また、情報処理装置100は、育児中に不安定な気持ちになっている母親に対して、自身とは異なる他の音声を聞かせることで、母親が冷静になる時間又は機会を提供することができる。 On the other hand, nowadays, when the father is not working, the mother often takes care of the child. In this way, only the mother may be forced to raise and raise children. Therefore, it is thought that the burden on the mother will be heavier than before. Also, when the mother alone takes care of the child, the child may not hear any sound or voice if the mother does not continue to speak, which may not have a positive effect on the child's brain and mental development. It is possible. However, considering the development of the child, if the mother keeps talking, the burden on the mother will increase further. Therefore, the information processing apparatus 100 can provide a function as a co-parent by delivering voice to the child via the speaker 10 instead of the mother. In addition, the information processing device 100 can provide a mother who feels unstable during childcare with a time or opportunity to calm down by listening to another voice different from herself. can.

〔1-2.情報処理装置の構成〕
次に、図2を用いて、第1の実施形態に係る情報処理装置100の構成について説明する。図2は、第1の実施形態に係る情報処理装置100の構成例を示す図である。図2に示すように、情報処理装置100は、通信部110と、記憶部120と、制御部130とを有する。
[1-2. Information processing device configuration]
Next, the configuration of the information processing apparatus 100 according to the first embodiment will be described with reference to FIG. FIG. 2 is a diagram showing a configuration example of the information processing apparatus 100 according to the first embodiment. As shown in FIG. 2, the information processing apparatus 100 includes a communication unit 110, a storage unit 120, and a control unit 130.

(通信部110について)
第1の実施形態に係る通信部110は、例えば、NIC(Network Interface Card)等によって実現される。そして、通信部110は、ネットワークNと有線又は無線で接続され、各種装置間で情報の送受信を行う。
(About communication unit 110)
The communication unit 110 according to the first embodiment is realized by, for example, a NIC (Network Interface Card) or the like. Then, the communication unit 110 is connected to the network N by wire or wirelessly, and transmits / receives information between various devices.

(記憶部120について)
第1の実施形態に係る記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)等の半導体メモリ素子、または、ハードディスク、光ディスク等の記憶装置によって実現される。記憶部120は、推定情報記憶部121と、発話情報記憶部122と、音声情報記憶部123とを有する。
(About the storage unit 120)
The storage unit 120 according to the first embodiment is realized by, for example, a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory (Flash Memory), or a storage device such as a hard disk or an optical disk. The storage unit 120 includes an estimation information storage unit 121, an utterance information storage unit 122, and a voice information storage unit 123.

(推定情報記憶部121について)
第1の実施形態に係る推定情報記憶部121は、推定された各種情報を記憶する。ここで、図3に、第1の実施形態に係る推定情報記憶部121の一例を示す。図3に示した例では、推定情報記憶部121は、「推定情報ID」、「推定対象ID」、「推定情報」といった項目を有する。また、「推定情報」は、「音声情報」、「状態」といった項目をさらに有する。
(About the estimated information storage unit 121)
The estimation information storage unit 121 according to the first embodiment stores various estimated information. Here, FIG. 3 shows an example of the estimation information storage unit 121 according to the first embodiment. In the example shown in FIG. 3, the estimated information storage unit 121 has items such as "estimated information ID", "estimated target ID", and "estimated information". Further, the "estimated information" further includes items such as "voice information" and "state".

「推定情報ID」は、推定情報を識別する識別子である。「推定対象ID」は、「推定情報ID」に対応付けられた推定された対象者を識別する識別子である。「音声情報」は、「推定情報ID」及び「推定対象ID」に対応付けられたスピーカ10から取得された音声情報である。 The "estimated information ID" is an identifier that identifies the estimated information. The "estimated target ID" is an identifier that identifies the estimated target person associated with the "estimated information ID". The "voice information" is voice information acquired from the speaker 10 associated with the "estimated information ID" and the "estimation target ID".

「状態」は、「推定情報ID」及び「推定対象ID」に対応付けられた推定対象の状態である。ここでいう状態とは、例えば、推定対象の感情等といった心理的な状態や、体調に関する状態や、推定対象のおかれている周囲の環境に関する状態等である。 The "state" is the state of the estimation target associated with the "estimation information ID" and the "estimation target ID". The state referred to here is, for example, a psychological state such as emotions of the estimation target, a state related to physical condition, a state related to the surrounding environment in which the estimation target is placed, and the like.

例えば、図3では、推定情報IDによって識別された「E1」は、推定対象IDが「EO1」であり、音声情報が「VI1」であり、状態が「ST1」である。なお、図3に示した例では、音声情報等を、「VI1」等の抽象的な符号で表現したが、音声情報等は、音声情報等を含むファイルのファイル形式等であってもよい。 For example, in FIG. 3, "E1" identified by the estimated information ID has an estimated target ID of "EO1", voice information of "VI1", and a state of "ST1". In the example shown in FIG. 3, the voice information or the like is represented by an abstract code such as "VI1", but the voice information or the like may be in a file format or the like of a file including the voice information or the like.

また、他の項目として、音声情報を取得した日時や、状態を推定した日時等に関する情報を有してもよい。例えば、推定情報記憶部121は、音声情報と、音声情報を取得した日時とを対応付けて記憶してもよい。また、推定情報記憶部121は、状態と、状態を推定した日時とを対応付けて記憶してもよい。 Further, as another item, it may have information on the date and time when the voice information was acquired, the date and time when the state was estimated, and the like. For example, the estimation information storage unit 121 may store the voice information in association with the date and time when the voice information was acquired. Further, the estimation information storage unit 121 may store the state in association with the date and time when the state is estimated.

なお、「音声情報」の項目は、後述するセンサによって検知された「センサ情報」に置き換えられてもよい。この場合、推定情報記憶部121には、「音声情報」の代わりに、「センサ情報」が記憶される。また、推定情報記憶部121には、「音声情報」と、「センサ情報」とが取得された場合、「音声情報」と、「センサ情報」とが「推定情報ID」及び「推定対象ID」に対応付けられて記憶されてもよい。 The item of "voice information" may be replaced with "sensor information" detected by a sensor described later. In this case, the estimation information storage unit 121 stores "sensor information" instead of "voice information". Further, when the "voice information" and the "sensor information" are acquired in the estimated information storage unit 121, the "voice information" and the "sensor information" are the "estimated information ID" and the "estimated target ID". It may be associated with and stored in.

(発話情報記憶部122について)
第1の実施形態に係る発話情報記憶部122は、各種発話情報を記憶する。ここで、図4に、実施形態に係る発話情報記憶部122の一例を示す。図4に示した例では、発話情報記憶部122は、「発話情報ID」、「発話情報」といった項目を有する。
(About the utterance information storage unit 122)
The utterance information storage unit 122 according to the first embodiment stores various utterance information. Here, FIG. 4 shows an example of the utterance information storage unit 122 according to the embodiment. In the example shown in FIG. 4, the utterance information storage unit 122 has items such as "utterance information ID" and "utterance information".

「発話情報ID」は、発話情報を識別する識別子である。「発話情報」は、「発話情報ID」に対応付けられた発話内容に関する情報である。ここでいう発話内容とは、例えば、「よしよし」、「良い子、良い子」といった子供に対して発話される発話内容や、「あわてなくても大丈夫だよ」、「赤ちゃんの声を聴くと、おむつが濡れているみたいだからおむつを準備しておいて」といった親に対して発話される発話内容や、「いつもこういうことをやっているけど、今日はこういうことをやらないの?」、「忘れていない?」といったそれ以外の発話内容等である。 The "utterance information ID" is an identifier that identifies the utterance information. The "utterance information" is information related to the utterance content associated with the "utterance information ID". The utterance content here is, for example, the utterance content spoken to a child such as "good", "good child, good child", "it is okay if you don't panic", and "listening to the baby's voice". The content of the utterances to the parents, such as "Because the diaper seems to be wet, prepare the diaper", "I'm always doing this, but don't you do this today?", " Other utterances such as "Don't you forget?"

例えば、図4では、発話情報IDによって識別された「T1」は、発話情報が「UT1」である。なお、図4に示した例では、発話情報を、「UT1」等の抽象的な符号で表現したが、発話情報は、発話内容を含むファイルのファイル形式等であってもよい。 For example, in FIG. 4, the utterance information of "T1" identified by the utterance information ID is "UT1". In the example shown in FIG. 4, the utterance information is represented by an abstract code such as "UT1", but the utterance information may be in the file format of a file including the utterance content.

(音声情報記憶部123について)
第1の実施形態に係る音声情報記憶部123は、各種音声情報を記憶する。ここで、図5に、実施形態に係る音声情報記憶部123の一例を示す。図5に示した例では、音声情報記憶部123は、「音声情報ID」、「音声情報」といった項目を有する。
(About voice information storage unit 123)
The voice information storage unit 123 according to the first embodiment stores various voice information. Here, FIG. 5 shows an example of the voice information storage unit 123 according to the embodiment. In the example shown in FIG. 5, the voice information storage unit 123 has items such as "voice information ID" and "voice information".

「音声情報ID」は、音声情報を識別する識別子である。「音声情報」は、「音声情報ID」に対応付けられた音声情報である。例えば、音声情報とは、母親の声や、父親の声や、母親の声に基づいて生成された人工的な音声や、父親の声に基づいて生成された人工的な音声や、人工的に作成された人工的な音声等である。ここで、人工的な音声は、男性や、女性や、キャラクタ等の音声である。 The "voice information ID" is an identifier that identifies voice information. The "voice information" is voice information associated with the "voice information ID". For example, voice information includes a mother's voice, a father's voice, an artificial voice generated based on the mother's voice, an artificial voice generated based on the father's voice, and artificially. It is an artificial voice created. Here, the artificial voice is a voice of a man, a woman, a character, or the like.

例えば、図5では、音声情報IDによって識別された「V1」は、音声情報が「VO1」である。なお、図5に示した例では、音声情報を、「VO1」等の抽象的な符号で表現したが、音声情報は、音声情報を含むファイルのファイル形式等であってもよい。 For example, in FIG. 5, the voice information of "V1" identified by the voice information ID is "VO1". In the example shown in FIG. 5, the voice information is represented by an abstract code such as "VO1", but the voice information may be in the file format of a file containing the voice information.

(制御部130について)
第1の実施形態に係る制御部130は、コントローラ(Controller)であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)等によって、情報処理装置100内部の記憶装置に記憶されている各種プログラム(情報処理プログラムの一例に相当)がRAMを作業領域として実行されることにより実現される。また、制御部130は、コントローラであり、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現される。
(About control unit 130)
The control unit 130 according to the first embodiment is a controller, and is stored in a storage device inside the information processing device 100 by, for example, a CPU (Central Processing Unit) or an MPU (Micro Processing Unit). Various programs (corresponding to an example of an information processing program) are realized by executing the RAM as a work area. Further, the control unit 130 is a controller, and is realized by, for example, an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

図2に示すように、制御部130は、取得部131と、推定部132と、提供部133とを有し、以下に説明する情報処理の機能や作用を実現または実行する。なお、制御部130の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図2に示した接続関係に限られず、他の接続関係であってもよい。 As shown in FIG. 2, the control unit 130 includes an acquisition unit 131, an estimation unit 132, and a provision unit 133, and realizes or executes the functions and operations of information processing described below. The internal configuration of the control unit 130 is not limited to the configuration shown in FIG. 2, and may be any other configuration as long as it is configured to perform information processing described later. Further, the connection relationship of each processing unit included in the control unit 130 is not limited to the connection relationship shown in FIG. 2, and may be another connection relationship.

(取得部131について)
第1の実施形態に係る取得部131は、各種情報を取得する。具体的には、取得部131は、対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得する。ここで、検知情報とは、例えば、スピーカ10によって集音された音声情報や、センサによって検知されたセンサ情報である。
(About acquisition unit 131)
The acquisition unit 131 according to the first embodiment acquires various information. Specifically, the acquisition unit 131 acquires the detection information detected by the detection means for detecting the state of the target person corresponding to the corresponding person. Here, the detection information is, for example, voice information collected by the speaker 10 or sensor information detected by the sensor.

例えば、子供が泣いているものとする。この場合、取得部131は、スピーカ10から子供の泣き声に関する情報を取得する。そして、取得部131は、取得した子供の泣き声に関する情報を音声情報として推定情報記憶部121に記憶する。 For example, suppose a child is crying. In this case, the acquisition unit 131 acquires information about the crying voice of the child from the speaker 10. Then, the acquisition unit 131 stores the acquired information regarding the crying voice of the child as voice information in the estimation information storage unit 121.

(推定部132について)
第1の実施形態に係る推定部132は、取得部131によって取得された検知情報に基づいて、対象者又は対応者の感情に関する情報を推定する。例えば、推定部132は、推定情報記憶部121に記憶された音声情報が示す音声が泣き声か否かを判定する。また、推定部132は、音声が泣き声であった場合、子供の泣き声を音声解析する。そして、推定部132は、泣き声が示す特徴的な波形に基づいて、子供の感情を推定する。より具体的な例を挙げて説明すると、推定部132は、子供の泣き声が示す特徴的な波形に基づいて、子供の感情が不快であり、イライラしている又は悲しい気持ちであると推定する。そして、推定部132は、推定した子供の感情が不快であり、イライラしている又は悲しい気持ちであるといった情報を状態に関する情報として推定情報記憶部121に記憶する。
(About estimation unit 132)
The estimation unit 132 according to the first embodiment estimates information regarding the emotions of the target person or the corresponding person based on the detection information acquired by the acquisition unit 131. For example, the estimation unit 132 determines whether or not the voice indicated by the voice information stored in the estimation information storage unit 121 is a crying voice. Further, the estimation unit 132 analyzes the crying voice of the child when the voice is crying. Then, the estimation unit 132 estimates the emotion of the child based on the characteristic waveform shown by the crying voice. To give a more specific example, the estimation unit 132 estimates that the child's emotions are unpleasant, frustrated, or sad based on the characteristic waveforms of the child's crying. Then, the estimation unit 132 stores information such as the estimated feelings of the child being unpleasant, frustrated, or sad as information regarding the state in the estimation information storage unit 121.

なお、上記推定処理は、音声情報を用いた各種公知の感情推定技術が採用可能である。例えば、音声情報が示す泣き声の周波数特性と、泣いている際の子供の感情との関係性を学習したニューラルネットワーク等の学習モデルにより実現される。かかる学習モデルは、音声情報を入力した際に、子供が感じていると推定される感情を示す情報を出力する。 As the estimation process, various known emotion estimation techniques using voice information can be adopted. For example, it is realized by a learning model such as a neural network that learns the relationship between the frequency characteristics of crying voice information and the emotions of a child when crying. Such a learning model outputs information indicating emotions presumed to be felt by a child when voice information is input.

例えば、推定部132は、バックプロパゲーション(誤差逆伝播法)等の手法により学習モデルを生成する。例えば、推定部132は、学習処理により、ノード間で値が伝達する際に考慮される重みの値を調整する。このように、推定部132は、学習モデルにおける出力と、入力に対応する正解との誤差が少なくなるようにパラメータを補正するバックプロパゲーション等の処理により学習モデルを生成する。例えば、推定部132は、所定の損失関数を最小化するようにバックプロパゲーション等の処理を行うことにより学習モデルを生成する。 For example, the estimation unit 132 generates a learning model by a method such as backpropagation (backpropagation method). For example, the estimation unit 132 adjusts the value of the weight considered when the value is transmitted between the nodes by the learning process. In this way, the estimation unit 132 generates the learning model by processing such as backpropagation that corrects the parameters so that the error between the output in the learning model and the correct answer corresponding to the input is reduced. For example, the estimation unit 132 generates a learning model by performing processing such as backpropagation so as to minimize a predetermined loss function.

また、上記推定処理は、泣き声が示す周波数特性と、子供の感情とが対応付けられたテーブル等を用いることで実現されてもよい。例えば、推定部132は、かかるテーブルを参照することで、取得部131によって取得された泣き声が示す周波数特性に対応する子供の感情に関する情報を推定してもよい。 Further, the estimation process may be realized by using a table or the like in which the frequency characteristic indicated by the crying voice and the emotion of the child are associated with each other. For example, the estimation unit 132 may estimate information about the child's emotion corresponding to the frequency characteristic indicated by the crying acquired by the acquisition unit 131 by referring to the table.

(提供部133について)
第1の実施形態に係る提供部133は、各種情報を提供する。具体的には、提供部133は、検知情報に応じた対象者を所定の状態に誘導するための発話に関する発話情報を提供する。例えば、提供部133は、推定された子供の感情が不快であり、イライラしている又は悲しい気持ちである場合、子供をあやすような発話内容「すぐにお母さんが取り替えるからねぇ」を含む発話情報を発話情報記憶部122から選択する。そして、提供部133は、選択した発話情報をスピーカ10に提供する。
(About the provider 133)
The providing unit 133 according to the first embodiment provides various information. Specifically, the providing unit 133 provides utterance information regarding utterances for guiding the target person to a predetermined state according to the detection information. For example, if the estimated child's emotions are unpleasant, frustrating, or sad, the providing unit 133 provides utterance information including the utterance content "I will replace it soon" to ease the child. Select from the utterance information storage unit 122. Then, the providing unit 133 provides the selected utterance information to the speaker 10.

また、提供部133は、母親に対する発話内容として、「おむつを取り替えたがっていますよ!」を含む発話情報を発話情報記憶部122から選択する。そして、提供部133は、選択した発話情報をスピーカ10に提供する。 In addition, the providing unit 133 selects utterance information including "I want to change the diaper!" From the utterance information storage unit 122 as the utterance content to the mother. Then, the providing unit 133 provides the selected utterance information to the speaker 10.

他の例では、提供部133は、推定された子供の状態が眠い場合、母親に対する発話内容として、「眠いようです。泣くことは悪くありません。そのままにして様子をみましょう」を含む発話情報を発話情報記憶部122から選択する。そして、提供部133は、選択した発話情報をスピーカ10に提供する。 In another example, if the estimated child's condition is sleepy, the utterance information including "I feel sleepy. It's not bad to cry. Let's leave it as it is" as the content of the utterance to the mother. Is selected from the utterance information storage unit 122. Then, the providing unit 133 provides the selected utterance information to the speaker 10.

また、提供部133は、発話情報に、子供に出力する音声情報を含めてもよい。例えば、提供部133は、子供に出力する音声情報として、人工的な音声に関する情報を音声情報記憶部123から選択する。そして、提供部133は、選択した音声情報を発話情報に含めて、かかる発話情報をスピーカ10に提供してもよい。 Further, the providing unit 133 may include the voice information to be output to the child in the utterance information. For example, the providing unit 133 selects information related to artificial voice from the voice information storage unit 123 as voice information to be output to the child. Then, the providing unit 133 may include the selected voice information in the utterance information and provide the utterance information to the speaker 10.

〔1-3.処理手順〕
次に、図6を用いて、第1の実施形態に係る情報処理装置100が実行する提供処理の手順について説明する。図6は、第1の実施形態に係る情報処理装置100が実行する提供処理の流れの一例を示すシーケンス図である。
[1-3. Processing procedure]
Next, with reference to FIG. 6, the procedure of the provision process executed by the information processing apparatus 100 according to the first embodiment will be described. FIG. 6 is a sequence diagram showing an example of a flow of provision processing executed by the information processing apparatus 100 according to the first embodiment.

図6に示すように、スピーカ10は、子供の泣き声を取得する(ステップS101)。そして、情報処理装置100の取得部131は、子供の泣き声に関する音声情報をスピーカ10から取得する(ステップS102)。 As shown in FIG. 6, the speaker 10 acquires the crying voice of the child (step S101). Then, the acquisition unit 131 of the information processing apparatus 100 acquires voice information regarding the crying voice of the child from the speaker 10 (step S102).

また、情報処理装置100の推定部132は、泣き声に関する音声情報に基づいて、子供の状態を推定する(ステップS103)。そして、情報処理装置100の提供部133は、子供の状態に応じた発話情報をスピーカ10に提供する(ステップS104)。そして、スピーカ10は、発話情報を音声として出力する(ステップS105)。 Further, the estimation unit 132 of the information processing apparatus 100 estimates the state of the child based on the voice information regarding the crying voice (step S103). Then, the providing unit 133 of the information processing apparatus 100 provides the speaker 10 with utterance information according to the state of the child (step S104). Then, the speaker 10 outputs the utterance information as voice (step S105).

[2.第2の実施形態]
〔2-1.情報処理装置が示す提供処理の一例〕
次に、第2の実施形態について説明する。上述してきた第1の実施形態では、情報処理装置100は、スピーカ10から取得された音声情報に基づいて、子供の状態を推定し、推定した子供の状態に応じた発話情報をスピーカ10に提供する提供処理の一例を説明した。第2の実施形態では、情報処理装置100は、センサによって検知された子供の生体情報に基づいて、子供の状態を推定し、推定した子供の状態に応じた発話情報をスピーカ10に提供する提供処理の例を示す。
[2. Second embodiment]
[2-1. An example of the provision process indicated by the information processing device]
Next, the second embodiment will be described. In the first embodiment described above, the information processing apparatus 100 estimates the state of the child based on the voice information acquired from the speaker 10, and provides the speaker 10 with speech information according to the estimated state of the child. An example of the provision process to be performed has been described. In the second embodiment, the information processing apparatus 100 estimates the child's state based on the child's biological information detected by the sensor, and provides the speaker 10 with speech information according to the estimated child's state. An example of processing is shown.

まず、図7を用いて、第2の実施形態に係る情報処理装置100が実行する提供処理の一例について説明する。図7は、第2の実施形態に係る情報処理装置100が実行する提供処理の一例を示す図である。 First, an example of the provision process executed by the information processing apparatus 100 according to the second embodiment will be described with reference to FIG. 7. FIG. 7 is a diagram showing an example of the provision process executed by the information processing apparatus 100 according to the second embodiment.

図7に示すように、第2の実施形態に係る情報処理システム2は、スピーカ10と、センサ20と、情報処理装置100とを含む。スピーカ10、センサ20及び情報処理装置100は、図示しない所定のネットワークを介して有線又は無線により通信可能に接続される。なお、図7に示す情報処理システム2には、複数台のスピーカ10や、複数台のセンサ20や、複数台の情報処理装置100が含まれてもよい。 As shown in FIG. 7, the information processing system 2 according to the second embodiment includes a speaker 10, a sensor 20, and an information processing device 100. The speaker 10, the sensor 20, and the information processing apparatus 100 are communicably connected by wire or wirelessly via a predetermined network (not shown). The information processing system 2 shown in FIG. 7 may include a plurality of speakers 10, a plurality of sensors 20, and a plurality of information processing devices 100.

第2の実施形態に係るスピーカ10は、第1の実施形態に係るスピーカ10と同一の処理を実行するため、説明を省略する。 Since the speaker 10 according to the second embodiment performs the same processing as the speaker 10 according to the first embodiment, the description thereof will be omitted.

第2の実施形態に係るセンサ20は、対象者又は対応者の各種情報を検知する検知装置である。例えば、センサ20は、IoT機器等により実現される。例えば、センサ20は、対象者又は対応者の近傍に設置され、対象者又は対応者の各種情報を検知可能な各種センサにより実現される。例えば、センサ20は、各種センサを用いて、対象者又は対応者の生体情報を検知する。 The sensor 20 according to the second embodiment is a detection device that detects various information of the target person or the corresponding person. For example, the sensor 20 is realized by an IoT device or the like. For example, the sensor 20 is realized by various sensors installed in the vicinity of the target person or the corresponding person and capable of detecting various information of the target person or the corresponding person. For example, the sensor 20 detects the biometric information of the target person or the corresponding person by using various sensors.

例えば、センサ20は、対象者又は対応者の心拍数を推定してもよい。また、センサ20は、温度センサ等を用いて、対象者又は対応者の周囲の温度を測定してもよい。また、センサ20は、温度センサ等を用いて、対象者又は対応者の体温を測定してもよい。また、センサ20は、赤外線カメラ等を用いて、対象者又は対応者の体温を測定してもよい。また、センサ20は、湿度センサ等を用いて、対象者又は対応者の体表面や周囲の湿度を測定してもよい。そして、センサ20は、湿度の測定結果に応じて、対象者又は対応者の発汗状態を測定してもよい。 For example, the sensor 20 may estimate the heart rate of the subject or the corresponding person. Further, the sensor 20 may measure the ambient temperature of the target person or the corresponding person by using a temperature sensor or the like. Further, the sensor 20 may measure the body temperature of the subject or the corresponding person by using a temperature sensor or the like. Further, the sensor 20 may measure the body temperature of the subject or the corresponding person by using an infrared camera or the like. Further, the sensor 20 may measure the humidity on the body surface or the surroundings of the subject or the corresponding person by using a humidity sensor or the like. Then, the sensor 20 may measure the sweating state of the subject or the corresponding person according to the measurement result of the humidity.

第2の実施形態に係る情報処理装置100は、第1の実施形態に係る情報処理装置100と同一の処理を実行するため、説明を省略する。 Since the information processing apparatus 100 according to the second embodiment performs the same processing as the information processing apparatus 100 according to the first embodiment, the description thereof will be omitted.

以下、図7を用いて、情報処理装置100による提供処理の一例を流れに沿って説明する。なお、以下の説明では、対象者が子供BA1であり、対象者を対応する対応者が、かかる子供BA1の母親PA1である例を挙げて説明する。 Hereinafter, an example of the provision process by the information processing apparatus 100 will be described along the flow with reference to FIG. 7. In the following description, an example will be given in which the subject is a child BA1 and the corresponding person corresponding to the subject is the mother PA1 of the child BA1.

図7の例では、情報処理装置100は、子供BA1が泣いた場合に、泣いているという子供BA1の行為、および、子供BA1がなぜ泣いているのかという原因等といった子供BA1の状態を推定する。そして、情報処理装置100は、推定結果に応じて、子供BA1を泣き止む状態に誘導するための発話情報を提供する。また、図7の例では、子供BA1は、おむつに排泄しており、感触が気持ち悪くて泣いているものとする。 In the example of FIG. 7, when the child BA1 cries, the information processing apparatus 100 estimates the state of the child BA1 such as the act of the child BA1 crying and the cause of why the child BA1 is crying. .. Then, the information processing apparatus 100 provides utterance information for inducing the child BA1 to a state of stopping crying according to the estimation result. Further, in the example of FIG. 7, it is assumed that the child BA1 is excreted in the diaper and feels uncomfortable and is crying.

まず、図7に示すように、情報処理装置100は、センサ20によって検知された子供BA1の生体情報を取得する(ステップS21)。ここでいう生体情報は、例えば、心拍数や、体温や、発汗量等に関する情報である。 First, as shown in FIG. 7, the information processing apparatus 100 acquires the biological information of the child BA1 detected by the sensor 20 (step S21). The biological information referred to here is, for example, information related to heart rate, body temperature, sweating amount, and the like.

例えば、センサ20は、子供BA1の心拍数の上昇や、体温の上昇や、発汗量の増加といった生体情報を取得する。そして、情報処理装置100は、かかる生体情報をセンサ20から取得する。 For example, the sensor 20 acquires biological information such as an increase in the heart rate of the child BA1, an increase in body temperature, and an increase in sweating amount. Then, the information processing apparatus 100 acquires such biological information from the sensor 20.

続いて、情報処理装置100は、取得した生体情報に基づいて、子供BA1の状態を推定する(ステップS22)。例えば、情報処理装置100は、取得した生体情報のうち、子供BA1の心拍数の上昇や、体温の上昇や、発汗量の増加といったいずれかの情報が所定の条件を満たす否かを判定する。例えば、情報処理装置100は、心拍数の上昇が所定の閾値以上の変動である場合、子供BA1の感情が不快であり、イライラしている又は悲しい気持ちであると推定する。 Subsequently, the information processing apparatus 100 estimates the state of the child BA1 based on the acquired biological information (step S22). For example, the information processing apparatus 100 determines whether or not any of the acquired biometric information, such as an increase in the heart rate of the child BA1, an increase in body temperature, or an increase in the amount of sweating, satisfies a predetermined condition. For example, the information processing apparatus 100 estimates that the emotion of the child BA1 is unpleasant, frustrated, or sad when the increase in heart rate is a fluctuation of a predetermined threshold value or more.

なお、上記推定処理は、生体情報を用いた各種公知の感情推定技術が採用可能である。例えば、生体情報と、泣いている際の子供の感情との関係性を学習したニューラルネットワーク等の学習モデルにより実現される。かかる学習モデルは、生体情報を入力した際に、子供が感じていると推定される感情を示す情報を出力する。また、上記推定処理は、生体情報と、子供の感情とが対応付けられたテーブル等を用いることで実現されてもよい。 As the estimation process, various known emotion estimation techniques using biological information can be adopted. For example, it is realized by a learning model such as a neural network that learns the relationship between biological information and the emotion of a child when crying. Such a learning model outputs information indicating emotions presumed to be felt by a child when biometric information is input. Further, the estimation process may be realized by using a table or the like in which the biological information and the emotion of the child are associated with each other.

そして、情報処理装置100は、発話情報をスピーカ10に提供する(ステップS23)。例えば、情報処理装置100は、推定された子供BA1の感情が不快であり、イライラしている又は悲しい気持ちである場合、子供BA1をあやすような発話内容「すぐにお母さんが取り替えるからねぇ」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供する。また、情報処理装置100は、発話情報に、子供BA1に出力する音声情報を含めてもよい。 Then, the information processing apparatus 100 provides the utterance information to the speaker 10 (step S23). For example, when the estimated emotion of the child BA1 is unpleasant, frustrated or sad, the information processing apparatus 100 includes an utterance content "because the mother will replace it immediately" to ease the child BA1. Select utterance information. Then, the information processing apparatus 100 provides the selected utterance information to the speaker 10. Further, the information processing apparatus 100 may include voice information to be output to the child BA1 in the utterance information.

続いて、スピーカ10は、発話情報を音声として子供BA1に出力する(ステップS24)。例えば、スピーカ10は、「すぐにお母さんが取り替えるからねぇ」といった音声を子供BA1に対して出力する。このように、情報処理装置100は、育児に忙しい母親の手を煩わせることなく、音声により子供に対してあやすことが可能となる。 Subsequently, the speaker 10 outputs the utterance information as voice to the child BA1 (step S24). For example, the speaker 10 outputs a voice such as "Mother will replace it soon" to the child BA1. In this way, the information processing apparatus 100 can comfort the child by voice without bothering the mother who is busy raising children.

〔2-2.処理手順〕
次に、図8を用いて、第2の実施形態に係る情報処理装置100が実行する提供処理の手順について説明する。図8は、第2の実施形態に係る情報処理装置100が実行する提供処理の流れの一例を示すシーケンス図である。
[2-2. Processing procedure]
Next, with reference to FIG. 8, the procedure of the provision process executed by the information processing apparatus 100 according to the second embodiment will be described. FIG. 8 is a sequence diagram showing an example of a flow of provision processing executed by the information processing apparatus 100 according to the second embodiment.

図8に示すように、センサ20は、子供の生体情報を取得する(ステップS201)。そして、情報処理装置100の取得部131は、子供の生体情報をセンサ20から取得する(ステップS202)。 As shown in FIG. 8, the sensor 20 acquires the biological information of the child (step S201). Then, the acquisition unit 131 of the information processing apparatus 100 acquires the biological information of the child from the sensor 20 (step S202).

また、情報処理装置100の推定部132は、生体情報に基づいて、子供の状態を推定する(ステップS203)。そして、情報処理装置100の提供部133は、子供の状態に応じた発話情報をスピーカ10に提供する(ステップS204)。そして、スピーカ10は、発話情報を音声として出力する(ステップS205)。 Further, the estimation unit 132 of the information processing apparatus 100 estimates the state of the child based on the biological information (step S203). Then, the providing unit 133 of the information processing apparatus 100 provides the speaker 10 with utterance information according to the state of the child (step S204). Then, the speaker 10 outputs the utterance information as voice (step S205).

[3.第3の実施形態]
〔3-1.情報処理装置が示す提供処理の一例〕
次に、第2の実施形態について説明する。上述してきた第1の実施形態では、情報処理装置100は、スピーカ10から取得された音声情報に基づいて、子供の状態を推定し、推定した子供の状態に応じた発話情報をスピーカ10に提供する提供処理の一例を説明した。第3の実施形態では、情報処理装置100は、センサによって検知された子供の生体情報に基づいて、子供の状態を推定し、推定した子供の状態に応じた発話情報をスピーカ10に提供する。そして、情報処理装置100は、推定した子供の状態に応じた対応を提案行動として端末装置に提供する提供処理の例を示す。
[3. Third Embodiment]
[3-1. An example of the provision process indicated by the information processing device]
Next, the second embodiment will be described. In the first embodiment described above, the information processing apparatus 100 estimates the state of the child based on the voice information acquired from the speaker 10, and provides the speaker 10 with speech information according to the estimated state of the child. An example of the provision process to be performed has been described. In the third embodiment, the information processing apparatus 100 estimates the child's state based on the child's biological information detected by the sensor, and provides the speaker 10 with utterance information according to the estimated child's state. Then, the information processing device 100 shows an example of a provision process of providing the terminal device with a response according to the estimated state of the child as a proposed action.

まず、図9を用いて、第3の実施形態に係る情報処理装置100が実行する提供処理の一例について説明する。図9は、第3の実施形態に係る情報処理装置100が実行する提供処理の一例を示す図である。 First, with reference to FIG. 9, an example of the provision process executed by the information processing apparatus 100 according to the third embodiment will be described. FIG. 9 is a diagram showing an example of the provision process executed by the information processing apparatus 100 according to the third embodiment.

図9に示すように、第3の実施形態に係る情報処理システム3は、スピーカ10と、センサ20と、端末装置30と、情報処理装置100とを含む。スピーカ10、センサ20、端末装置30及び情報処理装置100は、図示しない所定のネットワークを介して有線又は無線により通信可能に接続される。なお、図9に示す情報処理システム3には、複数台のスピーカ10や、複数台のセンサ20や、複数台の端末装置30や、複数台の情報処理装置100が含まれてもよい。 As shown in FIG. 9, the information processing system 3 according to the third embodiment includes a speaker 10, a sensor 20, a terminal device 30, and an information processing device 100. The speaker 10, the sensor 20, the terminal device 30, and the information processing device 100 are communicably connected by wire or wirelessly via a predetermined network (not shown). The information processing system 3 shown in FIG. 9 may include a plurality of speakers 10, a plurality of sensors 20, a plurality of terminal devices 30, and a plurality of information processing devices 100.

第3の実施形態に係るスピーカ10は、第1の実施形態に係るスピーカ10と同一の処理を実行するため、説明を省略する。 Since the speaker 10 according to the third embodiment performs the same processing as the speaker 10 according to the first embodiment, the description thereof will be omitted.

第3の実施形態に係るセンサ20は、第2の実施形態に係るセンサ20と同一の処理を実行するため、説明を省略する。 Since the sensor 20 according to the third embodiment performs the same processing as the sensor 20 according to the second embodiment, the description thereof will be omitted.

第3の実施形態に係る端末装置30は、ブラウザに表示されるウェブコンテンツやアプリケーション用のコンテンツ等のコンテンツにアクセスする利用者によって利用される情報処理装置である。例えば、端末装置30は、デスクトップ型PC(Personal Computer)や、ノート型PCや、タブレット端末や、携帯電話機や、PDA(Personal Digital Assistant)や、スマートウォッチ等のウェアラブルデバイス等である。 The terminal device 30 according to the third embodiment is an information processing device used by a user who accesses contents such as web contents displayed on a browser and contents for an application. For example, the terminal device 30 is a desktop PC (Personal Computer), a notebook PC, a tablet terminal, a mobile phone, a PDA (Personal Digital Assistant), a wearable device such as a smart watch, or the like.

第3の実施形態に係る情報処理装置100は、第1の実施形態に係る情報処理装置100と同一の処理を実行するため、説明を省略する。 Since the information processing apparatus 100 according to the third embodiment performs the same processing as the information processing apparatus 100 according to the first embodiment, the description thereof will be omitted.

以下、図9を用いて、情報処理装置100による提供処理の一例を流れに沿って説明する。なお、以下の説明では、対象者が子供BA1であり、対象者を対応する対応者が、かかる子供BA1の母親PA1である例を挙げて説明する。 Hereinafter, an example of the provision process by the information processing apparatus 100 will be described along the flow with reference to FIG. 9. In the following description, an example will be given in which the subject is a child BA1 and the corresponding person corresponding to the subject is the mother PA1 of the child BA1.

図9の例では、情報処理装置100は、子供BA1が泣いた場合に、泣いているという子供BA1の行為、および、子供BA1がなぜ泣いているのかという原因等といった子供BA1の状態を推定する。そして、情報処理装置100は、推定結果に応じて、子供BA1を泣き止む状態に誘導するための発話情報を提供する。また、図9の例では、子供BA1は、おむつに排泄しており、感触が気持ち悪くて泣いているものとする。 In the example of FIG. 9, the information processing apparatus 100 estimates the state of the child BA1 such as the act of the child BA1 crying when the child BA1 cries, the cause of why the child BA1 is crying, and the like. .. Then, the information processing apparatus 100 provides utterance information for inducing the child BA1 to a state of stopping crying according to the estimation result. Further, in the example of FIG. 9, it is assumed that the child BA1 is excreted in the diaper and feels uncomfortable and is crying.

まず、図9に示すように、情報処理装置100は、センサ20によって検知された子供BA1の生体情報を取得する(ステップS31)。ステップS31は、ステップS21と同一の処理のため、説明を省略する。 First, as shown in FIG. 9, the information processing apparatus 100 acquires the biological information of the child BA1 detected by the sensor 20 (step S31). Since step S31 is the same process as step S21, the description thereof will be omitted.

続いて、情報処理装置100は、取得した生体情報に基づいて、子供BA1の状態を推定する(ステップS32)。例えば、情報処理装置100は、取得した生体情報のうち、子供BA1の心拍数の上昇や、体温の上昇や、発汗量の増加といったいずれかの情報が所定の条件を満たす否かを判定する。例えば、情報処理装置100は、心拍数の上昇が所定の閾値以上の変動である場合、子供BA1の感情がさみしい気持ちであると推定する。 Subsequently, the information processing apparatus 100 estimates the state of the child BA1 based on the acquired biological information (step S32). For example, the information processing apparatus 100 determines whether or not any of the acquired biometric information, such as an increase in the heart rate of the child BA1, an increase in body temperature, or an increase in the amount of sweating, satisfies a predetermined condition. For example, the information processing apparatus 100 estimates that the emotion of the child BA1 is a lonely feeling when the increase in the heart rate is a fluctuation of a predetermined threshold value or more.

そして、情報処理装置100は、発話情報をスピーカ10に提供する(ステップS33)。例えば、情報処理装置100は、推定された子供BA1の感情がさみしい気持ちである場合、子供BA1を安心させる発話内容「すぐにお母さんが来るからねぇ」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供する。また、情報処理装置100は、発話情報に、子供BA1に出力する音声情報を含めてもよい。 Then, the information processing apparatus 100 provides the utterance information to the speaker 10 (step S33). For example, when the estimated emotion of the child BA1 is a lonely feeling, the information processing apparatus 100 selects the utterance information including the utterance content "Because the mother will come soon" to reassure the child BA1. Then, the information processing apparatus 100 provides the selected utterance information to the speaker 10. Further, the information processing apparatus 100 may include voice information to be output to the child BA1 in the utterance information.

続いて、スピーカ10は、発話情報を音声として子供BA1に出力する(ステップS34)。例えば、スピーカ10は、「すぐにお母さんが来るからねぇ」といった音声を子供BA1に対して出力する。このように、情報処理装置100は、母親がすぐに対応できない場合に、スピーカ10を介して出力された人工音声で子供BA1をあやすことで、母親PA1の手の空く時間を作る機会を提供することができる。 Subsequently, the speaker 10 outputs the utterance information as voice to the child BA1 (step S34). For example, the speaker 10 outputs a voice such as "Mother will come soon" to the child BA1. In this way, the information processing apparatus 100 provides an opportunity to make free time for the mother PA1 by comforting the child BA1 with the artificial voice output via the speaker 10 when the mother cannot respond immediately. be able to.

そして、情報処理装置100は、提案行動に関する情報を提供する(ステップS35)。例えば、情報処理装置100は、子供のさみしいという感情を和らげるための提案行動を母親PA1によって利用される端末装置30に提供する。より具体的な例を挙げて説明すると、情報処理装置100は、「今、ABCDちゃんはさみしい気持ちです。抱っこしてあげましょう」という母親PA1に対して子供BA1を直接的に世話させるための情報を提供する。また、情報処理装置100は、「今、ABCDちゃんはさみしい気持ちです。歌いかけてあげましょう」という母親PA1に対して子供BA1を直接的に世話させるための情報を提供する。このように、情報処理装置100は、子供の状態に応じた適切な提案行動を母親に対して提供することができる。 Then, the information processing apparatus 100 provides information regarding the proposed action (step S35). For example, the information processing device 100 provides the terminal device 30 used by the mother PA1 with a proposed action for relieving the child's feelings of loneliness. To explain with a more specific example, the information processing device 100 is for the mother PA1 who says "ABCD is lonely now. Let's hold her" to take care of the child BA1 directly. Provide information. In addition, the information processing device 100 provides information for directly taking care of the child BA1 to the mother PA1 who says, "ABCD is feeling lonely now. Let's sing." In this way, the information processing apparatus 100 can provide the mother with appropriate proposal behavior according to the condition of the child.

〔3-2.処理手順〕
次に、図10を用いて、第3の実施形態に係る情報処理装置100が実行する提供処理の手順について説明する。図10は、第3の実施形態に係る情報処理装置100が実行する提供処理の流れの一例を示すシーケンス図である。
[3-2. Processing procedure]
Next, with reference to FIG. 10, the procedure of the provision process executed by the information processing apparatus 100 according to the third embodiment will be described. FIG. 10 is a sequence diagram showing an example of a flow of provision processing executed by the information processing apparatus 100 according to the third embodiment.

図10に示すように、センサ20は、子供の生体情報を取得する(ステップS301)。そして、情報処理装置100の取得部131は、子供の生体情報をセンサ20から取得する(ステップS302)。 As shown in FIG. 10, the sensor 20 acquires the biological information of the child (step S301). Then, the acquisition unit 131 of the information processing apparatus 100 acquires the biological information of the child from the sensor 20 (step S302).

また、情報処理装置100の推定部132は、生体情報に基づいて、子供の状態を推定する(ステップS303)。そして、情報処理装置100の提供部133は、子供の状態に応じた発話情報をスピーカ10に提供する(ステップS304)。そして、スピーカ10は、発話情報を音声として出力する(ステップS305)。また、情報処理装置100の提供部133は、提案行動に関する情報を端末装置30に提供する(ステップS306)。 Further, the estimation unit 132 of the information processing apparatus 100 estimates the state of the child based on the biological information (step S303). Then, the providing unit 133 of the information processing apparatus 100 provides the speaker 10 with utterance information according to the state of the child (step S304). Then, the speaker 10 outputs the utterance information as voice (step S305). Further, the providing unit 133 of the information processing apparatus 100 provides information regarding the proposed action to the terminal apparatus 30 (step S306).

[4.変形例]
上述した情報処理装置100は、上記実施形態以外にも種々の異なる形態にて実施されてよい。そこで、以下では、情報処理装置100の他の実施形態について説明する。
[4. Modification example]
The information processing apparatus 100 described above may be implemented in various different forms other than the above-described embodiment. Therefore, in the following, another embodiment of the information processing apparatus 100 will be described.

〔4-1.センサ〕
上記実施形態では、センサ20が子供又は母親の生体情報を検知するセンサである例を挙げて説明したが、これに限定されなくともよい。例えば、センサ20は、生体情報を検知するセンサのみならず、各種センサであってもよい。
[4-1. Sensor]
In the above embodiment, the example in which the sensor 20 is a sensor for detecting the biological information of a child or a mother has been described, but the present invention is not limited to this. For example, the sensor 20 may be not only a sensor that detects biological information but also various sensors.

例えば、センサ20は、匂いセンサを用いて、子供又は母親の周囲の匂いを測定してもよい。例えば、センサ20は、子供が着用するおむつに取付けられた匂いセンサが検知した匂いに基づいて、子供が排尿又は排便を行ったことを検知してもよい。 For example, the sensor 20 may use an odor sensor to measure the odor around the child or mother. For example, the sensor 20 may detect that the child has urinated or defecation based on the odor detected by the odor sensor attached to the diaper worn by the child.

また、センサ20は、おむつに装着され、電気容量の変動に基づいて、排尿又は排便を検知する排泄センサのセンサ情報に基づいて、子供が排尿又は排便を行ったか否かを検知してもよい。 Further, the sensor 20 may be attached to the diaper and detect whether or not the child has urinated or defecation based on the sensor information of the excretion sensor that detects urination or defecation based on the fluctuation of the electric capacity. ..

また、センサ20は、カメラ等の撮像手段を用いて、子供又は母親の動きを撮影し、撮影した静止画像や動画像等をセンサ情報として検知する。また、センサ20は、子供が利用するおもちゃや、楽器等といった所定の物体に付与された接触センサを用いて、子供が所定の物体に接触したことを検知してもよい。なお、センサ20は、例えば、時計等といった時刻を検知するセンサであってもよい。 Further, the sensor 20 uses an imaging means such as a camera to capture the movement of the child or mother, and detects the captured still image, moving image, or the like as sensor information. Further, the sensor 20 may detect that the child has come into contact with a predetermined object by using a contact sensor attached to a predetermined object such as a toy or a musical instrument used by the child. The sensor 20 may be a sensor that detects the time, such as a clock.

また、センサ20は、各種センサにより検知された情報のみならず、これらのセンサ情報から推定される内容を状態情報として検知してもよい。例えば、センサ20は、カメラにより撮影された画像から、子供が所定の物体に接触したか否か推定し、子供が所定の物体に接触したと推定される場合は、子供が所定の物体に接触した旨の状態情報を生成してもよい。 Further, the sensor 20 may detect not only the information detected by various sensors but also the contents estimated from these sensor information as state information. For example, the sensor 20 estimates whether or not the child has touched a predetermined object from the image taken by the camera, and if it is estimated that the child has touched the predetermined object, the child touches the predetermined object. You may generate the state information to that effect.

また、センサ20は、複数のセンサにより検知されたセンサ情報の組合せに基づいて、子供の状態を検知してもよい。例えば、センサ20は、温度センサにより対象者の体温が上昇し、かつ、匂いセンサが便の匂いを検知した場合は、子供が排泄したことを示す状態情報を生成してもよい。 Further, the sensor 20 may detect the state of the child based on the combination of the sensor information detected by the plurality of sensors. For example, the sensor 20 may generate state information indicating that the child has excreted when the body temperature of the subject is raised by the temperature sensor and the odor sensor detects the odor of stool.

なお、図7、9、12及び13に示す例では、センサ20の一例として、子供を撮影するカメラを備えたセンサを記載したが、これに限定されなくともよい。センサ20は、検知を目的とした装置として独立していなくてもよく、他の製品に含まれるように構成されてもよい。例えば、センサ20は、スマートテレビ等の各種家電製品であってもよい。 In the examples shown in FIGS. 7, 9, 12 and 13, a sensor provided with a camera for photographing a child is described as an example of the sensor 20, but the sensor is not limited thereto. The sensor 20 does not have to be independent as a device for the purpose of detection, and may be configured to be included in other products. For example, the sensor 20 may be various home appliances such as a smart TV.

また、センサ20は、ぬいぐるみや、ぬいぐるみ型のロボット等であってもよい。また、センサ20は、子供又は母親に対して接触する接触型のセンサであってもよく、子供又は母親に接触しない非接触型のセンサであってもよい。また、センサ20は、端末装置30が有するハードウェアにより実現されるように構成されてもよい。例えば、センサ20は、端末装置30にインストールされたアプリケーションにより実現されるように構成されてもよい。 Further, the sensor 20 may be a stuffed animal, a stuffed animal type robot, or the like. Further, the sensor 20 may be a contact type sensor that comes into contact with the child or mother, or may be a non-contact type sensor that does not come into contact with the child or mother. Further, the sensor 20 may be configured to be realized by the hardware of the terminal device 30. For example, the sensor 20 may be configured to be implemented by an application installed in the terminal device 30.

〔4-2.音声〕
上記実施形態では、音声が人工的な音声である例を挙げて説明したが、これに限定されない。例えば、音声は、子供にとって心地がいい音声であれば如何なる音声でもよい。また、子供の親の音声よりも心地よい音声であってもよい。
[4-2. audio〕
In the above embodiment, the example in which the voice is an artificial voice has been described, but the present invention is not limited to this. For example, the voice may be any voice that is comfortable for the child. In addition, the voice may be more comfortable than the voice of the parent of the child.

例えば、音声は、子供にとって心地よいと感じる周波数を有する音声であってもよい。また、音声は、親そのものの音声であってもよく、親の音声に基づいて生成された人工的な音声であってもよい。また、音声は、予め親が発話した音声の録音であってもよい。また、音声は、親とは異なる第三者の音声であってもよい。 For example, the voice may be a voice having a frequency that the child feels comfortable with. Further, the voice may be the voice of the parent itself, or may be an artificial voice generated based on the voice of the parent. Further, the voice may be a recording of the voice spoken by the parent in advance. Further, the voice may be the voice of a third party different from the parent.

例えば、スピーカ10は、父親と、子供との音声を取得したものとする。この場合、情報処理装置100は、音声情報として、母親の音声に基づいて生成した人工的な音声を用いてもよい。 For example, it is assumed that the speaker 10 has acquired the voices of the father and the child. In this case, the information processing apparatus 100 may use artificial voice generated based on the mother's voice as voice information.

また、上記実施例では、情報処理装置100の提供部133が音声情報記憶部123から音声を選択する例を挙げたが、これに限定されなくともよい。例えば、提供部133は、逐次適切な音声を生成してもよい。例えば、音声情報記憶部123に音声の生成に必要な各種情報が記憶されているものとする。この場合、提供部133は、音声情報記憶部123に記憶される各種情報に基づいて、音声を生成してもよい。そして、提供部133は、かかる生成した音声に関する音声情報を発話情報に含めてもよい。 Further, in the above embodiment, the example in which the providing unit 133 of the information processing apparatus 100 selects voice from the voice information storage unit 123 has been given, but the present invention is not limited to this. For example, the providing unit 133 may sequentially generate appropriate voice. For example, it is assumed that various information necessary for generating voice is stored in the voice information storage unit 123. In this case, the providing unit 133 may generate voice based on various information stored in the voice information storage unit 123. Then, the providing unit 133 may include the voice information regarding the generated voice in the utterance information.

また、上記実施形態では、スピーカ10が発話情報を音声として出力する例を挙げて説明したが、これに限定されない。例えば、スピーカ10は、子供又は親がリラックスするような音楽を出力してもよい。 Further, in the above embodiment, an example in which the speaker 10 outputs utterance information as voice has been described, but the present invention is not limited to this. For example, the speaker 10 may output music that makes the child or parent relax.

〔4-3.音声の言語〕
上記実施形態では、音声が人工的な音声である例を挙げて説明したが、これに限定されない。例えば、音声の言語は、如何なる言語であってもよい。また、音声の言語は、予め親に設定されてもよい。
[4-3. Speech language]
In the above embodiment, the example in which the voice is an artificial voice has been described, but the present invention is not limited to this. For example, the language of speech may be any language. Further, the language of the voice may be set to the parent in advance.

例えば、母親が日本人であり、父親がアメリカ人であるものとする。この場合、音声の言語は、日本語及び英語に設定されてもよい。この場合、スピーカ10は、日本語を8割で出力し、英語を2割で出力してもよい。また、母親が日本人であり、父親が中国人であるものとする。この場合、音声の言語は、日本語及び中国語に設定されてもよい。この場合、スピーカ10は、日本語を5割で出力し、中国語を5割で出力してもよい。なお、音声の言語の出力割合は、親によって適宜設定可能であってもよい。 For example, suppose the mother is Japanese and the father is American. In this case, the audio language may be set to Japanese and English. In this case, the speaker 10 may output Japanese at 80% and English at 20%. It is also assumed that the mother is Japanese and the father is Chinese. In this case, the audio language may be set to Japanese and Chinese. In this case, the speaker 10 may output Japanese at 50% and Chinese at 50%. The output ratio of the voice language may be appropriately set by the parent.

また、上記例以外にも、母親及び父親が日本人であっても、音声の言語を子供に習得させたい言語を含めるように設定されてもよい。例えば、子供に習得させたい言語が英語であるものとする。この場合、スピーカ10は、日本語を8割で出力し、英語を2割で出力してもよい。このように、スピーカ10は、子供の言語習得の支援を行うことができる。一般に、家庭環境が子供の言語習得に影響を及ぼすことが知られている。このため、スピーカ10は、親が子供に習得してほしい言語を出力する音声に含めることで、子供に対して言語習得に関する育児又は養育を行うことを可能とする。 In addition to the above example, even if the mother and father are Japanese, it may be set to include a language in which the child wants to learn the language of speech. For example, assume that the language you want your child to learn is English. In this case, the speaker 10 may output Japanese at 80% and English at 20%. In this way, the speaker 10 can support the child's language acquisition. It is generally known that the family environment affects a child's language acquisition. Therefore, the speaker 10 makes it possible to raise or raise a child regarding language acquisition by including the speaker 10 in a voice that outputs a language that the parent wants the child to learn.

〔4-4.スピーカ〕
上記実施形態では、スピーカ10が発話情報を音声として出力する例を挙げて説明したが、これに限定されない。例えば、スピーカ10は、音声情報記憶部123を有し、スピーカ10側で発話情報に適した音声を音声情報記憶部123から選択してもよい。そして、スピーカ10は、選択した音声を用いて、発話情報を出力してもよい。
[4-4. Speaker]
In the above embodiment, an example in which the speaker 10 outputs utterance information as voice has been described, but the present invention is not limited to this. For example, the speaker 10 has a voice information storage unit 123, and the voice suitable for utterance information may be selected from the voice information storage unit 123 on the speaker 10 side. Then, the speaker 10 may output utterance information using the selected voice.

〔4-5.提供タイミング〕
上記実施形態では、情報処理装置100の提供部133が取得部131によって音声情報又は生体情報が取得されたタイミングで提供処理を実行する例を挙げて説明したが、これに限定されない。例えば、提供部133は、子供の泣き声の大きさや、声の強さの変動や、子供の生体情報に基づく体調の変動や、子供又は親の状態の変動に基づいて、発話情報を提供してもよい。また、提供部133は、予め親に設定された時間に基づいてタイマー機能を有し、設定された時間に提供処理を実行してもよい。
[4-5. Offer timing]
In the above embodiment, the provision unit 133 of the information processing apparatus 100 has described with reference to an example of executing the provision processing at the timing when the voice information or the biological information is acquired by the acquisition unit 131, but the present invention is not limited to this. For example, the providing unit 133 provides utterance information based on the loudness of the child's crying, the fluctuation of the voice strength, the fluctuation of the physical condition based on the biological information of the child, and the fluctuation of the condition of the child or the parent. May be good. Further, the providing unit 133 may have a timer function based on a time set in advance for the parent, and may execute the providing process at the set time.

また、提供部133は、提供する発話情報が示す発話内容について、予め親に提供許可を要求してもよい。例えば、子供をあやす内容の発話内容を含む発話情報の提供する頻度を親に選択させてもよい。例えば、頻度が、高、中、低といった3段階に分かれているものとする。また、親が予め「高」頻度を選択していたものとする。この場合、提供部133は、子供に対して、あやす内容を含む発話情報を、「高」頻度に対応する所定回数以上提供してもよい。 In addition, the providing unit 133 may request the parent to provide permission in advance for the utterance content indicated by the utterance information to be provided. For example, the parent may be made to select the frequency of providing the utterance information including the utterance content of the content that comforts the child. For example, it is assumed that the frequency is divided into three stages such as high, medium, and low. It is also assumed that the parent has previously selected the "high" frequency. In this case, the providing unit 133 may provide the child with utterance information including a comforting content a predetermined number of times or more corresponding to the "high" frequency.

〔4-6.推定情報〕
上記実施形態では、情報処理装置100の推定部132が取得部131によって取得された音声情報に基づいて、子供の感情に関する情報を推定する例を挙げて説明したが、これに限定されなくともよい。例えば、子供が何かしらの意図を持たずにただ泣いているものとする(例えば、黄昏泣き等)。この場合、推定部132は、子供が泣いている原因がないことを推定してもよい。そして、提供部133は、推定結果に基づいて、母親のストレスを軽減させるための発話情報を提供してもよい。
[4-6. Estimated information]
In the above embodiment, an example in which the estimation unit 132 of the information processing apparatus 100 estimates information about the emotions of the child based on the voice information acquired by the acquisition unit 131 has been described, but the present invention is not limited to this. .. For example, assume that the child is just crying without any intention (eg, twilight crying, etc.). In this case, the estimation unit 132 may estimate that there is no cause for the child to cry. Then, the providing unit 133 may provide utterance information for reducing the stress of the mother based on the estimation result.

例えば、提供部133は、「よくわからないけど泣いている模様」というように、特に原因もなく泣いている子供の感情を示す情報とともに、「泣き止まなくても大丈夫。泣くことは悪くありません。そのまま待ってみて」というように、直接的な対応を行わないことを提案するアドバイスを発話情報としてスピーカ10に提供する。そして、スピーカ10は、かかる発話情報を母親に向けて音声として出力してもよい。 For example, the provider 133 said, "I don't know, but it looks like I'm crying," along with information that shows the emotions of the child who is crying for no particular reason. Providing the speaker 10 with advice suggesting not to take a direct response, such as "Wait a minute", as utterance information. Then, the speaker 10 may output such utterance information to the mother as voice.

〔4-7.発話情報〕
上記実施形態では、発話情報が子供の状態を所定の状態へ誘導するための発話情報である例を挙げて説明したが、これに限定されない。例えば、発話情報は、「今、X時YY分です」といった現在の時間の説明を示す発話内容を含む発話情報であってもよい。また、発話情報は、「いつもX時にZZZといったことをやっているけど、今日はZZZをやらないの?」や、「KKKすることを忘れていない?」等の備忘録的な発話内容を含む発話情報であってもよい。このように、発話情報は、子供の状態が変動していなくとも出力可能な内容を発話情報としてもよい。
[4-7. Utterance information]
In the above embodiment, the utterance information has been described with reference to an example in which the utterance information is the utterance information for inducing the state of the child to a predetermined state, but the present invention is not limited to this. For example, the utterance information may be utterance information including the utterance content indicating the explanation of the current time such as "Now, it is X hours YY minutes". In addition, the utterance information includes utterances including memorandum utterances such as "I always do things like ZZZ at X, but do you not do ZZZ today?" And "Don't forget to do KKK?" It may be information. As described above, the utterance information may be the content that can be output even if the child's condition does not change.

〔4-8.音声の認証〕
上記実施形態では、情報処理装置100の取得部131が音声情報を取得する例を挙げて説明したが、これに限定されなくともよい。例えば、予め子供の音声に関する情報や、子供の音声の特徴量等が情報処理装置100の記憶部120に登録されているものとする。この場合、取得部131は、取得した音声情報が示す音声が子供の音声か否かを判定してもよい。例えば、取得部131は、音声認識技術を用いて、子供によって発せられた音声を示す音声情報と、予め記憶部120に記憶される音声情報とを照合し、発話を行った人が、子供であるか否かを判定する。例えば、取得部131は、子供によって発せられた音声を示す音声情報と、記憶部120に記憶される音声情報とが一致した場合、子供が音声を発していると判定する。
[4-8. Voice authentication]
In the above embodiment, an example in which the acquisition unit 131 of the information processing apparatus 100 acquires voice information has been described, but the present invention is not limited to this. For example, it is assumed that information about the child's voice, a feature amount of the child's voice, and the like are registered in the storage unit 120 of the information processing apparatus 100 in advance. In this case, the acquisition unit 131 may determine whether or not the voice indicated by the acquired voice information is a child's voice. For example, the acquisition unit 131 collates the voice information indicating the voice emitted by the child with the voice information stored in the storage unit 120 in advance by using the voice recognition technique, and the person who made the speech is a child. Determine if it exists. For example, the acquisition unit 131 determines that the child is emitting a voice when the voice information indicating the voice emitted by the child and the voice information stored in the storage unit 120 match.

例えば、取得部131は、取得した音声情報が示す音声が子供の音声であると判定した場合、取得した音声情報を推定情報記憶部121に記憶してもよい。一方、取得部131は、取得した音声情報が示す音声が子供の音声でないと判定した場合、取得した音声情報を推定情報記憶部121に記憶しなくともよい。また、取得部131は、上記判定処理を母親の音声に対して実行してもよい。 For example, when the acquisition unit 131 determines that the voice indicated by the acquired voice information is a child's voice, the acquisition unit 131 may store the acquired voice information in the estimation information storage unit 121. On the other hand, when the acquisition unit 131 determines that the voice indicated by the acquired voice information is not the voice of a child, the acquisition unit 131 does not have to store the acquired voice information in the estimation information storage unit 121. Further, the acquisition unit 131 may execute the above determination process on the voice of the mother.

〔4-9.親の状態の推定(1)〕
上記実施形態では、情報処理装置100の提供部133が音声情報に応じた子供を所定の状態に誘導するための発話情報を提供する例を挙げて説明したが、これに限定されなくともよい。例えば、提供部133は、音声情報に応じた母親を所定の状態に誘導するための発話情報を提供してもよい。
[4-9. Estimating the state of the parent (1)]
In the above embodiment, the provision unit 133 of the information processing apparatus 100 has described with reference to an example of providing utterance information for guiding a child to a predetermined state according to voice information, but the present invention is not limited to this. For example, the providing unit 133 may provide utterance information for guiding the mother according to the voice information to a predetermined state.

ここで、図11を用いて、変形例に係る情報処理装置100が実行する提供処理の一例について説明する。図11は、変形例に係る情報処理装置100が実行する提供処理の一例を示す図である。 Here, an example of the provision process executed by the information processing apparatus 100 according to the modified example will be described with reference to FIG. FIG. 11 is a diagram showing an example of the provision process executed by the information processing apparatus 100 according to the modified example.

図11に示すように、変形例に係る情報処理システム4は、スピーカ10と、情報処理装置100とを含む。スピーカ10及び情報処理装置100は、図示しない所定のネットワークを介して有線又は無線により通信可能に接続される。なお、図11に示す情報処理システム4には、複数台のスピーカ10や、複数台の情報処理装置100が含まれてもよい。 As shown in FIG. 11, the information processing system 4 according to the modified example includes a speaker 10 and an information processing device 100. The speaker 10 and the information processing apparatus 100 are connected so as to be communicable by wire or wirelessly via a predetermined network (not shown). The information processing system 4 shown in FIG. 11 may include a plurality of speakers 10 and a plurality of information processing devices 100.

変形例に係るスピーカ10は、第1の実施形態に係るスピーカ10と同一の処理を実行するため、説明を省略する。 Since the speaker 10 according to the modified example performs the same processing as the speaker 10 according to the first embodiment, the description thereof will be omitted.

変形例に係る情報処理装置100は、第1の実施形態に係る情報処理装置100と同一の処理を実行するため、説明を省略する。 Since the information processing apparatus 100 according to the modified example executes the same processing as the information processing apparatus 100 according to the first embodiment, the description thereof will be omitted.

以下、図11を用いて、情報処理装置100による提供処理の一例を流れに沿って説明する。なお、以下の説明では、対象者が子供BA1であり、対象者を対応する対応者が、かかる子供BA1の母親PA1である例を挙げて説明する。 Hereinafter, an example of the provision process by the information processing apparatus 100 will be described along the flow with reference to FIG. In the following description, an example will be given in which the subject is a child BA1 and the corresponding person corresponding to the subject is the mother PA1 of the child BA1.

図11の例では、情報処理装置100は、母親PA1の状態を推定する。そして、情報処理装置100は、推定結果に応じて、母親が冷静になる状態又は安心する状態に誘導するための発話情報を提供する。また、図11の例では、子供BA1は、泣いているものとする。また、母親PA1は、イライラしているものとする。 In the example of FIG. 11, the information processing apparatus 100 estimates the state of the mother PA1. Then, the information processing apparatus 100 provides utterance information for inducing the mother to a calm state or a relieved state according to the estimation result. Further, in the example of FIG. 11, it is assumed that the child BA1 is crying. Also, the mother PA1 is assumed to be frustrated.

まず、図11に示すように、情報処理装置100は、音声情報を取得する(ステップS41)。例えば、スピーカ10は、子供BA1の泣き声に関する情報を取得する。そして、情報処理装置100は、スピーカ10から子供BA1の泣き声に関する情報を取得する。 First, as shown in FIG. 11, the information processing apparatus 100 acquires voice information (step S41). For example, the speaker 10 acquires information about the crying voice of the child BA1. Then, the information processing apparatus 100 acquires information about the crying voice of the child BA1 from the speaker 10.

続いて、情報処理装置100は、取得した音声に基づいて、親の状態を推定する(ステップS42)。例えば、情報処理装置100は、取得した音声が泣き声か否かを判定する。また、情報処理装置100は、泣き声が所定の期間以上続いているか否かを判定する。ここで、情報処理装置100は、音声が泣き声と判定し、泣き声が所定の期間以上続いているものと判定したものとする。この場合、情報処理装置100は、親の状態として、母親PA1の感情がイライラしていると推定する。 Subsequently, the information processing apparatus 100 estimates the state of the parent based on the acquired voice (step S42). For example, the information processing apparatus 100 determines whether or not the acquired voice is crying. Further, the information processing apparatus 100 determines whether or not the crying continues for a predetermined period or longer. Here, it is assumed that the information processing apparatus 100 determines that the voice is crying and that the crying continues for a predetermined period or longer. In this case, the information processing apparatus 100 presumes that the emotion of the mother PA1 is frustrated as the state of the parent.

他の例として、情報処理装置100は、取得した音声が泣き声か否かを判定するとともに、取得した音声にイライラしているような声や、怒鳴り声や、大きい声等が含まれているか否かを判定する。ここで、情報処理装置100は、音声が泣き声と判定し、音声にイライラしているような声が含まれていると判定したものとする。この場合、情報処理装置100は、親の状態として、母親PA1の感情がイライラしていると推定する。 As another example, the information processing apparatus 100 determines whether or not the acquired voice is a crying voice, and whether or not the acquired voice includes a frustrating voice, a yelling voice, a loud voice, or the like. Is determined. Here, it is assumed that the information processing apparatus 100 determines that the voice is a crying voice and that the voice includes a voice that seems to be frustrating. In this case, the information processing apparatus 100 presumes that the emotion of the mother PA1 is frustrated as the state of the parent.

そして、情報処理装置100は、発話情報をスピーカ10に提供する(ステップS43)。例えば、情報処理装置100は、推定された母親PA1の感情がイライラしている気持である場合、母親PA1を安心させるための発話内容「あわてなくても大丈夫だよ!」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供する。また、情報処理装置100は、発話情報に、母親PA1に出力する音声情報を含めてもよい。例えば、情報処理装置100は、母親PA1に出力する音声情報として、人工的な音声に関する情報を発話情報に含めて、かかる発話情報をスピーカ10に提供してもよい。 Then, the information processing apparatus 100 provides the utterance information to the speaker 10 (step S43). For example, when the estimated emotion of the mother PA1 is frustrated, the information processing apparatus 100 selects the utterance information including the utterance content "It is okay not to panic!" To reassure the mother PA1. do. Then, the information processing apparatus 100 provides the selected utterance information to the speaker 10. Further, the information processing apparatus 100 may include voice information to be output to the mother PA1 in the utterance information. For example, the information processing apparatus 100 may include artificial voice information in the utterance information as voice information to be output to the mother PA1 and provide the utterance information to the speaker 10.

続いて、スピーカ10は、発話情報を音声として母親PA1に出力する(ステップS44)。例えば、スピーカ10は、「あわてなくても大丈夫だよ!」といった音声を母親PA1に対して出力する。 Subsequently, the speaker 10 outputs the utterance information as voice to the mother PA1 (step S44). For example, the speaker 10 outputs a voice such as "You don't have to panic!" To the mother PA1.

また、上記ステップS42において、情報処理装置100は、取得した音声に基づいて、子供の状態を推定してもよい。例えば、情報処理装置100は、取得した音声が泣き声か否かを判定する。また、情報処理装置100は、音声が泣き声であった場合、子供の泣き声を音声解析する。そして、情報処理装置100は、泣き声が示す特徴的な波形に基づいて、子供の感情を推定してもよい。ここで、情報処理装置100は、子供の感情が不快であり、イライラしている又は悲しい気持ちであると推定するものとする。なお、上記推定処理は、音声情報を用いた各種公知の感情推定技術が採用可能である。 Further, in step S42, the information processing apparatus 100 may estimate the state of the child based on the acquired voice. For example, the information processing apparatus 100 determines whether or not the acquired voice is crying. Further, when the voice is crying, the information processing apparatus 100 analyzes the crying voice of the child. Then, the information processing apparatus 100 may estimate the emotion of the child based on the characteristic waveform indicated by the crying voice. Here, it is assumed that the information processing apparatus 100 presumes that the child's emotions are unpleasant, frustrated, or sad. As the estimation process, various known emotion estimation techniques using voice information can be adopted.

そして、情報処理装置100は、発話情報をスピーカ10に提供してもよい。例えば、情報処理装置100は、推定された母親PA1の感情がイライラしている気持である場合、且つ、推定された子供の感情が不快であり、イライラしている又は悲しい気持ちである場合、子供を泣き止ませるような発話内容「乳幼児の声を聴くと、おむつが濡れているみたいだからおむつを準備しておいで」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供してもよい。 Then, the information processing apparatus 100 may provide the utterance information to the speaker 10. For example, the information processing apparatus 100 is a child when the estimated emotion of the mother PA1 is frustrated and when the estimated emotion of the child is unpleasant, frustrated or sad. Select the utterance information that includes the utterance content that makes you stop crying, "When you hear the voice of an infant, it seems that the diaper is wet, so prepare the diaper." Then, the information processing apparatus 100 may provide the selected utterance information to the speaker 10.

そして、スピーカ10は、発話情報を音声として母親PA1に出力してもよい。例えば、スピーカ10は、「乳幼児の声を聴くと、おむつが濡れているみたいだからおむつを準備しておいで」といった音声を母親PA1に対して出力してもよい。これにより、情報処理装置100は、母親に対して、子供を泣き止ませるような行動を提案することができる。 Then, the speaker 10 may output the utterance information as voice to the mother PA1. For example, the speaker 10 may output a voice such as "When listening to the voice of an infant, the diaper seems to be wet, so prepare the diaper" to the mother PA1. As a result, the information processing apparatus 100 can propose to the mother an action that makes the child stop crying.

このように、情報処理装置100は、母親自身に対して安心させるような音声を提供する。これにより、情報処理装置100は、母親に対して、語りかけるような音声であり、第三者からの音声であるため、母親が冷静になる機会を提供することができる。また、情報処理装置100は、母親が子供の対応に苦慮している場合、解決方法を提案することができる。これにより、情報処理装置100は、母親の育児又は養育を適切に支援し、共同養育者としての機能を提供することができる。 In this way, the information processing apparatus 100 provides a voice that reassures the mother herself. As a result, the information processing apparatus 100 can provide the mother with an opportunity to be calm because the voice is a voice that speaks to the mother and is a voice from a third party. Further, the information processing apparatus 100 can propose a solution when the mother has difficulty in dealing with the child. Thereby, the information processing apparatus 100 can appropriately support the child-rearing or child-rearing of the mother and provide the function as a co-caregiver.

〔4-10.親の状態の推定(2)〕
上記実施形態では、情報処理装置100の提供部133が音声情報に応じた子供を所定の状態に誘導するための発話情報を提供する例を挙げて説明したが、これに限定されなくともよい。例えば、提供部133は、音声情報に応じた母親を所定の状態に誘導するための発話情報を提供してもよい。
[4-10. Estimating the state of the parent (2)]
In the above embodiment, the provision unit 133 of the information processing apparatus 100 has described with reference to an example of providing utterance information for guiding a child to a predetermined state according to voice information, but the present invention is not limited to this. For example, the providing unit 133 may provide utterance information for guiding the mother according to the voice information to a predetermined state.

ここで、図12を用いて、変形例に係る情報処理装置100が実行する提供処理の一例について説明する。図12は、変形例に係る情報処理装置100が実行する提供処理の一例を示す図である。 Here, an example of the provision process executed by the information processing apparatus 100 according to the modified example will be described with reference to FIG. FIG. 12 is a diagram showing an example of the provision process executed by the information processing apparatus 100 according to the modified example.

図12に示すように、変形例に係る情報処理システム5は、スピーカ10と、センサ20と、情報処理装置100とを含む。スピーカ10、センサ20及び情報処理装置100は、図示しない所定のネットワークを介して有線又は無線により通信可能に接続される。なお、図12に示す情報処理システム5には、複数台のスピーカ10や、複数台のセンサ20や、複数台の情報処理装置100が含まれてもよい。 As shown in FIG. 12, the information processing system 5 according to the modified example includes a speaker 10, a sensor 20, and an information processing device 100. The speaker 10, the sensor 20, and the information processing apparatus 100 are communicably connected by wire or wirelessly via a predetermined network (not shown). The information processing system 5 shown in FIG. 12 may include a plurality of speakers 10, a plurality of sensors 20, and a plurality of information processing devices 100.

変形例に係るスピーカ10は、第1の実施形態に係るスピーカ10と同一の処理を実行するため、説明を省略する。 Since the speaker 10 according to the modified example performs the same processing as the speaker 10 according to the first embodiment, the description thereof will be omitted.

変形例に係るセンサ20は、第2の実施形態に係るセンサ20と同一の処理を実行するため、説明を省略する。 Since the sensor 20 according to the modified example performs the same processing as the sensor 20 according to the second embodiment, the description thereof will be omitted.

変形例に係る情報処理装置100は、第1の実施形態に係る情報処理装置100と同一の処理を実行するため、説明を省略する。 Since the information processing apparatus 100 according to the modified example executes the same processing as the information processing apparatus 100 according to the first embodiment, the description thereof will be omitted.

以下、図12を用いて、情報処理装置100による提供処理の一例を流れに沿って説明する。なお、以下の説明では、対象者が子供BA1であり、対象者を対応する対応者が、かかる子供BA1の母親PA1である例を挙げて説明する。 Hereinafter, an example of the provision process by the information processing apparatus 100 will be described along the flow with reference to FIG. 12. In the following description, an example will be given in which the subject is a child BA1 and the corresponding person corresponding to the subject is the mother PA1 of the child BA1.

図12の例では、情報処理装置100は、母親PA1の状態を推定する。そして、情報処理装置100は、推定結果に応じて、母親が冷静になる状態又は安心する状態に誘導するための発話情報を提供する。また、図12の例では、子供BA1は、泣いているものとする。また、母親PA1は、イライラしているものとする。 In the example of FIG. 12, the information processing apparatus 100 estimates the state of the mother PA1. Then, the information processing apparatus 100 provides utterance information for inducing the mother to a calm state or a relieved state according to the estimation result. Further, in the example of FIG. 12, it is assumed that the child BA1 is crying. Also, the mother PA1 is assumed to be frustrated.

まず、図12に示すように、情報処理装置100は、センサ20によって検知された親の生体情報を取得する(ステップS51)。例えば、センサ20は、母親PA1の心拍数の上昇や、体温の上昇や、発汗量の増加といった生体情報を取得する。そして、情報処理装置100は、かかる生体情報をセンサ20から取得する。 First, as shown in FIG. 12, the information processing apparatus 100 acquires the biometric information of the parent detected by the sensor 20 (step S51). For example, the sensor 20 acquires biological information such as an increase in the heart rate of the mother PA1, an increase in body temperature, and an increase in sweating amount. Then, the information processing apparatus 100 acquires such biological information from the sensor 20.

続いて、情報処理装置100は、取得した生体情報に基づいて、親の状態を推定する(ステップS52)。例えば、情報処理装置100は、取得した生体情報のうち、母親PA1の心拍数の上昇や、体温の上昇や、発汗量の増加といったいずれかの情報が所定の条件を満たす否かを判定する。例えば、情報処理装置100は、心拍数の上昇が所定の閾値以上の変動である場合、母親の感情がイライラしていると推定する。なお、上記推定処理は、生体情報を用いた各種公知の感情推定技術が採用可能である。 Subsequently, the information processing apparatus 100 estimates the state of the parent based on the acquired biological information (step S52). For example, the information processing apparatus 100 determines whether or not any of the acquired biometric information, such as an increase in the heart rate of the mother PA1, an increase in body temperature, or an increase in the amount of sweating, satisfies a predetermined condition. For example, the information processing apparatus 100 estimates that the mother's emotions are frustrated when the increase in heart rate is a fluctuation of a predetermined threshold value or more. As the estimation process, various known emotion estimation techniques using biological information can be adopted.

そして、情報処理装置100は、発話情報をスピーカ10に提供する(ステップS53)。例えば、情報処理装置100は、推定された母親の感情がイライラしている気持ちである場合、母親を安心させるための発話内容「あわてなくても大丈夫だよ!」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供する。また、情報処理装置100は、発話情報に、母親PA1に出力する音声情報を含めてもよい。 Then, the information processing apparatus 100 provides the utterance information to the speaker 10 (step S53). For example, when the estimated mother's feelings are frustrated, the information processing apparatus 100 selects utterance information including the utterance content "It is okay not to panic!" To reassure the mother. Then, the information processing apparatus 100 provides the selected utterance information to the speaker 10. Further, the information processing apparatus 100 may include voice information to be output to the mother PA1 in the utterance information.

続いて、スピーカ10は、発話情報を音声として母親PA1に出力する(ステップS54)。例えば、スピーカ10は、「あわてなくても大丈夫だよ!」といった音声を母親PA1に対して出力する。このように、情報処理装置100は、母親の状態に適した音声を提供することができる。 Subsequently, the speaker 10 outputs the utterance information as voice to the mother PA1 (step S54). For example, the speaker 10 outputs a voice such as "You don't have to panic!" To the mother PA1. In this way, the information processing apparatus 100 can provide voice suitable for the state of the mother.

〔4-11.親の状態の推定(3)〕
上記実施形態では、情報処理装置100の提供部133が音声情報に応じた子供を所定の状態に誘導するための発話情報を提供する例を挙げて説明したが、これに限定されなくともよい。例えば、提供部133は、音声情報に応じた母親を所定の状態に誘導するための発話情報を提供してもよい。
[4-11. Estimating the state of the parent (3)]
In the above embodiment, the provision unit 133 of the information processing apparatus 100 has described with reference to an example of providing utterance information for guiding a child to a predetermined state according to voice information, but the present invention is not limited to this. For example, the providing unit 133 may provide utterance information for guiding the mother according to the voice information to a predetermined state.

ここで、図13を用いて、変形例に係る情報処理装置100が実行する提供処理の一例について説明する。図13は、変形例に係る情報処理装置100が実行する提供処理の一例を示す図である。 Here, an example of the provision process executed by the information processing apparatus 100 according to the modified example will be described with reference to FIG. FIG. 13 is a diagram showing an example of the provision process executed by the information processing apparatus 100 according to the modified example.

図13に示すように、変形例に係る情報処理システム6は、スピーカ10と、センサ21と、センサ22と、情報処理装置100とを含む。スピーカ10、センサ21、センサ22及び情報処理装置100は、図示しない所定のネットワークを介して有線又は無線により通信可能に接続される。なお、図13に示す情報処理システム6には、複数台のスピーカ10や、複数台のセンサ21や、複数台のセンサ22や、複数台の情報処理装置100が含まれてもよい。 As shown in FIG. 13, the information processing system 6 according to the modified example includes a speaker 10, a sensor 21, a sensor 22, and an information processing device 100. The speaker 10, the sensor 21, the sensor 22, and the information processing apparatus 100 are communicably connected by wire or wirelessly via a predetermined network (not shown). The information processing system 6 shown in FIG. 13 may include a plurality of speakers 10, a plurality of sensors 21, a plurality of sensors 22, and a plurality of information processing devices 100.

変形例に係るスピーカ10は、第1の実施形態に係るスピーカ10と同一の処理を実行するため、説明を省略する。 Since the speaker 10 according to the modified example performs the same processing as the speaker 10 according to the first embodiment, the description thereof will be omitted.

変形例に係るセンサ21及び22は、第2の実施形態に係るセンサ20と同一の処理を実行するため、説明を省略する。 Since the sensors 21 and 22 according to the modified example perform the same processing as the sensor 20 according to the second embodiment, the description thereof will be omitted.

変形例に係る情報処理装置100は、第1の実施形態に係る情報処理装置100と同一の処理を実行するため、説明を省略する。 Since the information processing apparatus 100 according to the modified example executes the same processing as the information processing apparatus 100 according to the first embodiment, the description thereof will be omitted.

以下、図13を用いて、情報処理装置100による提供処理の一例を流れに沿って説明する。なお、以下の説明では、対象者が子供BA1であり、対象者を対応する対応者が、かかる子供BA1の母親PA1である例を挙げて説明する。また、図13の例では、子供BA1の周囲にセンサ21が設置され、母親PA1の周囲にセンサ22が設置されているものとする。 Hereinafter, an example of the provision process by the information processing apparatus 100 will be described along the flow with reference to FIG. In the following description, an example will be given in which the subject is a child BA1 and the corresponding person corresponding to the subject is the mother PA1 of the child BA1. Further, in the example of FIG. 13, it is assumed that the sensor 21 is installed around the child BA1 and the sensor 22 is installed around the mother PA1.

図13の例では、情報処理装置100は、母親PA1の状態を推定する。そして、情報処理装置100は、推定結果に応じて、母親が冷静になる状態又は安心する状態に誘導するための発話情報を提供する。また、図13の例では、子供BA1は、泣いているものとする。また、母親PA1は、イライラしているものとする。 In the example of FIG. 13, the information processing apparatus 100 estimates the state of the mother PA1. Then, the information processing apparatus 100 provides utterance information for inducing the mother to a calm state or a relieved state according to the estimation result. Further, in the example of FIG. 13, it is assumed that the child BA1 is crying. Also, the mother PA1 is assumed to be frustrated.

まず、図13に示すように、情報処理装置100は、センサ21によって検知された子供の生体情報を取得する(ステップS61)。また、情報処理装置100は、センサ22によって検知された親の生体情報を取得する(ステップS62)。 First, as shown in FIG. 13, the information processing apparatus 100 acquires the biological information of the child detected by the sensor 21 (step S61). Further, the information processing apparatus 100 acquires the biometric information of the parent detected by the sensor 22 (step S62).

例えば、センサ21は、子供BA1の心拍数の上昇や、体温の上昇や、発汗量の増加といった生体情報を取得する。そして、情報処理装置100は、かかる生体情報をセンサ21から取得する。 For example, the sensor 21 acquires biological information such as an increase in the heart rate of the child BA1, an increase in body temperature, and an increase in the amount of sweating. Then, the information processing apparatus 100 acquires such biological information from the sensor 21.

また、センサ22は、母親PA1の心拍数の上昇や、体温の上昇や、発汗量の増加といった生体情報を取得する。そして、情報処理装置100は、かかる生体情報をセンサ22から取得する。 In addition, the sensor 22 acquires biological information such as an increase in the heart rate of the mother PA1, an increase in body temperature, and an increase in the amount of sweating. Then, the information processing apparatus 100 acquires such biological information from the sensor 22.

続いて、情報処理装置100は、取得した子供の生体情報と、親の生体情報との組合せに基づいて、親の状態を推定する(ステップS63)。例えば、情報処理装置100は、取得した生体情報のうち、子供BA1の心拍数の上昇や、体温の上昇や、発汗量の増加といったいずれかの情報が所定の条件を満たす否かを判定する。また、情報処理装置100は、取得した生体情報のうち、母親PA1の心拍数の上昇や、体温の上昇や、発汗量の増加といったいずれかの情報が所定の条件を満たす否かを判定する。例えば、情報処理装置100は、子供BA1の心拍数の上昇が所定の閾値以上の変動である場合、且つ、母親PA1の心拍数の上昇が所定の閾値以上の変動である場合、母親の感情がイライラしていると推定する。なお、上記推定処理は、生体情報を用いた各種公知の感情推定技術が採用可能である。 Subsequently, the information processing apparatus 100 estimates the state of the parent based on the combination of the acquired biological information of the child and the biological information of the parent (step S63). For example, the information processing apparatus 100 determines whether or not any of the acquired biometric information, such as an increase in the heart rate of the child BA1, an increase in body temperature, or an increase in the amount of sweating, satisfies a predetermined condition. Further, the information processing apparatus 100 determines whether or not any of the acquired biometric information, such as an increase in the heart rate of the mother PA1, an increase in body temperature, or an increase in the amount of sweating, satisfies a predetermined condition. For example, in the information processing apparatus 100, when the increase in the heart rate of the child BA1 is a fluctuation of a predetermined threshold or more, and the increase in the heart rate of the mother PA1 is a fluctuation of a predetermined threshold or more, the emotion of the mother is expressed. Estimate to be frustrated. As the estimation process, various known emotion estimation techniques using biological information can be adopted.

そして、情報処理装置100は、発話情報をスピーカ10に提供する(ステップS64)。例えば、情報処理装置100は、推定された母親の感情がイライラしている気持ちである場合、母親を安心させるための発話内容「あわてなくても大丈夫だよ!」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供する。また、情報処理装置100は、発話情報に、母親PA1に出力する音声情報を含めてもよい。 Then, the information processing apparatus 100 provides the utterance information to the speaker 10 (step S64). For example, when the estimated mother's feelings are frustrated, the information processing apparatus 100 selects utterance information including the utterance content "It is okay not to panic!" To reassure the mother. Then, the information processing apparatus 100 provides the selected utterance information to the speaker 10. Further, the information processing apparatus 100 may include voice information to be output to the mother PA1 in the utterance information.

続いて、スピーカ10は、発話情報を音声として母親PA1に出力する(ステップS65)。例えば、スピーカ10は、「あわてなくても大丈夫だよ!」といった音声を母親PA1に対して出力する。このように、情報処理装置100は、母親の状態に適した音声を提供することができる。 Subsequently, the speaker 10 outputs the utterance information as voice to the mother PA1 (step S65). For example, the speaker 10 outputs a voice such as "You don't have to panic!" To the mother PA1. In this way, the information processing apparatus 100 can provide voice suitable for the state of the mother.

なお、情報処理装置100は、対応者の状態に応じて対象者を所定の状態に誘導するための発話情報として、子供に対する発話情報を提供するようにしてもよい。例えば、情報処理装置100は、推定された母親の感情がイライラしている気持ちである場合、子供に対する発話内容「お母さんが少し休憩しているから少し待っていてね」を含む発話情報を選択する。そして、情報処理装置100は、選択した発話情報をスピーカ10に提供する。また、情報処理装置100は、発話情報に、母親PA1に出力する音声情報を含めてもよい。 The information processing apparatus 100 may provide utterance information to the child as utterance information for guiding the target person to a predetermined state according to the state of the corresponding person. For example, when the estimated mother's emotions are frustrating, the information processing apparatus 100 selects utterance information including the utterance content "Mother is taking a short break, so please wait for a while". .. Then, the information processing apparatus 100 provides the selected utterance information to the speaker 10. Further, the information processing apparatus 100 may include voice information to be output to the mother PA1 in the utterance information.

続いて、スピーカ10は、発話情報を音声として子供に出力する。例えば、スピーカ10は、「お母さんが少し休憩しているから少し待っていてね」といった音声を子供に対して出力する。 Subsequently, the speaker 10 outputs the utterance information as voice to the child. For example, the speaker 10 outputs a voice such as "Mother is taking a break for a while, so please wait for a while" to the child.

このように、情報処理装置100は、対応者の状態によって対象者に対して声掛けを行うことができる。これにより、対応者がイライラ等により他者からのアドバイスに対応しづらい状態であっても、対応者は、自身の状態を把握し、整えるきっかけを得ることができるようになり、対象者に対して適切な養護をすることができるようになる。 In this way, the information processing apparatus 100 can speak to the target person depending on the state of the corresponding person. As a result, even if the responder is in a state where it is difficult to respond to advice from others due to frustration, etc., the responder can grasp his / her own condition and get an opportunity to prepare it. You will be able to provide appropriate care.

〔4-12.行動を推定〕
上記実施形態では、情報処理装置100の推定部132が取得部131によって取得された生体情報に基づいて、子供の感情に関する情報を推定する例を挙げて説明したが、これに限定されなくともよい。例えば、推定部132は、子供につけられたセンサ20によって検知されたセンサ情報に基づいて、子供の行動に関する情報を推定してもよい。
[4-12. Estimate behavior]
In the above embodiment, the estimation unit 132 of the information processing apparatus 100 has described by giving an example of estimating information regarding the emotion of a child based on the biological information acquired by the acquisition unit 131, but the present invention is not limited to this. .. For example, the estimation unit 132 may estimate information about the behavior of the child based on the sensor information detected by the sensor 20 attached to the child.

例えば、センサ20がカメラによる撮影機能を有するものとする。この場合、推定部132は、カメラが検知した静止画像や動画像に基づいて、子供が大きく動いているか、寝返りを打っているか、ハイハイしているかといった行動が行われているかを推定してもよい。ここで、子供が上手にハイハイできているものとする。 For example, it is assumed that the sensor 20 has a shooting function by a camera. In this case, the estimation unit 132 may estimate whether the child is moving significantly, turning over, or hiking based on the still image or moving image detected by the camera. good. Here, it is assumed that the child is able to go high and high well.

そして、提供部133は、子供が上手にハイハイできていることを褒めるための発話内容「上手にできているね!すごいよ」を含む発話情報をスピーカ10に提供してもよい。そして、スピーカ10は、「上手にできているね!すごいよ」といった音声を子供に対して出力してもよい。 Then, the providing unit 133 may provide the speaker 10 with utterance information including the utterance content "You are doing well! It's amazing" for complimenting that the child is doing well. Then, the speaker 10 may output a voice such as "It's done well! It's amazing" to the child.

このように、実施形態に係る情報処理装置100の推定部132は、子供の行動に関する情報を推定する。そして、提供部133は、子供の行動に応じた発話情報を提供する。これにより、提供部133は、子供の行動に対して褒める内容の発話情報を提供するため、子供の発育を促すことができる。 In this way, the estimation unit 132 of the information processing apparatus 100 according to the embodiment estimates information regarding the behavior of the child. Then, the providing unit 133 provides the utterance information according to the behavior of the child. As a result, the providing unit 133 can promote the growth of the child because it provides the utterance information with the content of complimenting the behavior of the child.

なお、他の例として、センサ20が各種の距離センサを有するものとする。この場合、推定部132は、距離センサによって検知されたセンサ情報に基づいて、子供がぬいぐるみに接触しているか等を推定してもよい。また、おもちゃが接触センサを有するものとする。この場合、推定部132は、取得部131によっておもちゃから取得された接触センサによって検知されたセンサ情報に基づいて、子供がどのおもちゃで遊んでいるか等を推定してもよい。 As another example, it is assumed that the sensor 20 has various distance sensors. In this case, the estimation unit 132 may estimate whether the child is in contact with the stuffed animal or the like based on the sensor information detected by the distance sensor. Also, it is assumed that the toy has a contact sensor. In this case, the estimation unit 132 may estimate which toy the child is playing with based on the sensor information detected by the contact sensor acquired from the toy by the acquisition unit 131.

また、上記推定処理は、センサ情報を用いた各種公知の行動推定技術が採用可能である。例えば、上記推定処理は、子供のセンサ情報と、子供の行動に関する情報との関係性を学習したニューラルネットワーク等の学習モデルにより実現される。かかる学習モデルは、センサ情報を入力した際に、子供の行動に関する情報を出力する。 Further, as the estimation process, various known behavior estimation techniques using sensor information can be adopted. For example, the estimation process is realized by a learning model such as a neural network that learns the relationship between the child's sensor information and the information about the child's behavior. Such a learning model outputs information about the child's behavior when the sensor information is input.

また、学習モデルは、子供の反応や、親の反応をフィードバックし、再学習を行ってもよい。ここでいう再学習とは、例えば、子供のセンサ情報と、子供の行動に関する情報と、子供の反応との関係性をさらに学習した学習モデルにより実現される。また、再学習は、子供のセンサ情報と、子供の行動に関する情報と、親の反応との関係性をさらに学習した学習モデルにより実現される。また、再学習は、子供のセンサ情報と、子供の行動に関する情報と、子供の反応と、親の反応との関係性をさらに学習した学習モデルにより実現される。ここで、子供又は親の反応は、効果があった又は効果がなかったといった二値化した値であってもよいし、効果の度合いを示す0~1の値をとり得るスコアであってもよい。これにより、上記推定処理は、子供の行動に関する情報を推定する精度を向上させることができる。 In addition, the learning model may feed back the reaction of the child or the reaction of the parent to perform re-learning. The re-learning here is realized by, for example, a learning model in which the relationship between the sensor information of the child, the information about the behavior of the child, and the reaction of the child is further learned. In addition, re-learning is realized by a learning model that further learns the relationship between the sensor information of the child, the information about the behavior of the child, and the reaction of the parent. In addition, re-learning is realized by a learning model that further learns the relationship between the child's sensor information, the information about the child's behavior, the child's reaction, and the parent's reaction. Here, the reaction of the child or the parent may be a binarized value such as having an effect or not having an effect, or may be a score that can take a value of 0 to 1 indicating the degree of the effect. good. Thereby, the estimation process can improve the accuracy of estimating the information regarding the behavior of the child.

また、推定部132は、母親につけられたセンサ20によって検知されたセンサ情報に基づいて、母親の行動に関する情報を推定してもよい。例えば、センサ20がカメラによる撮影機能を有するものとする。この場合、推定部132は、カメラが検知した静止画像や動画像に基づいて、母親の家事や、仕事等による忙しさの度合いを推定してもよい。ここで、母親が忙しいものとする。なお、上記推定処理は、センサ情報を用いた各種公知の行動推定技術が採用可能である。 Further, the estimation unit 132 may estimate information regarding the behavior of the mother based on the sensor information detected by the sensor 20 attached to the mother. For example, it is assumed that the sensor 20 has a shooting function by a camera. In this case, the estimation unit 132 may estimate the degree of busyness due to the mother's housework, work, etc., based on the still image or the moving image detected by the camera. Here, it is assumed that the mother is busy. As the estimation process, various known behavior estimation techniques using sensor information can be adopted.

そして、提供部133は、母親が忙しいため、子供をあやすための発話内容「よしよし」や、「いないいないばー」等を含む発話情報をスピーカ10に提供してもよい。そして、スピーカ10は、「よしよし」や、「いないいないばー」といった音声を子供に対して出力してもよい。 Then, since the mother is busy, the providing unit 133 may provide the speaker 10 with utterance information including the utterance content "Yoshiyoshi" and "Nainaiba" for comforting the child. Then, the speaker 10 may output a voice such as "OK" or "Not" to the child.

このように、実施形態に係る情報処理装置100の推定部132は、母親の行動に関する情報を推定する。そして、提供部133は、母親の行動に応じた発話情報を子供に対して提供する。これにより、提供部133は、母親の育児又は養育の負担を軽減することができる。 In this way, the estimation unit 132 of the information processing apparatus 100 according to the embodiment estimates information regarding the behavior of the mother. Then, the providing unit 133 provides the child with utterance information according to the behavior of the mother. As a result, the providing unit 133 can reduce the burden of child-rearing or child-rearing of the mother.

〔4-13.学習モデル〕
上記実施形態では、情報処理装置100の提供部133が音声情報に応じた子供を所定の状態に誘導するための発話情報を提供する例を挙げて説明したが、機械学習等の従来技術を用いて、発話内容の種別や、音声出力のタイミングを学習した学習モデルを生成してもよい。
[4-13. Learning model]
In the above embodiment, an example in which the providing unit 133 of the information processing apparatus 100 provides speech information for guiding a child to a predetermined state according to voice information has been described, but conventional techniques such as machine learning are used. Then, a learning model that learns the type of speech content and the timing of voice output may be generated.

例えば、提供部133は、スピーカ10から発話情報が音声として出力され、子供が泣き止むまでの期間と、泣き止んだ発話情報が示す発話内容との関係性を学習し、発話情報が示す発話内容が入力された際に、泣き止みやすい度合いを示すスコアを出力するように学習モデルを生成してもよい。ここで、子供が泣き止むまでの期間は、スピーカ10で泣き声を録音することで推定する。 For example, the providing unit 133 learns the relationship between the period until the child stops crying and the utterance content indicated by the utterance information when the utterance information is output from the speaker 10 as voice, and the utterance content indicated by the utterance information. A learning model may be generated to output a score indicating the degree to which crying is likely to stop when is input. Here, the period until the child stops crying is estimated by recording the crying voice with the speaker 10.

例えば、学習モデルは、子供が泣き止むまでの期間が短い発話内容のスコアが高くなるように学習する。また、学習モデルは、子供が泣き止まなかった発話内容を負例として学習してもよい。 For example, the learning model learns so that the score of the utterance content that the child stops crying for a short period of time is high. In addition, the learning model may learn the utterance content that the child did not stop crying as a negative example.

これにより、提供部133は、学習モデルに基づいて、子供に最適化された発話内容の種別に属する発話内容を含む発話情報を提供することができる。なお、学習モデルは、子供の反応や、親の反応をフィードバックし、再学習を行ってもよい。 Thereby, the providing unit 133 can provide the utterance information including the utterance content belonging to the type of the utterance content optimized for the child based on the learning model. The learning model may feed back the reaction of the child or the reaction of the parent to perform re-learning.

〔4-14.その他〕
上記した各処理のうち、自動的に行われるものとして説明した処理の全部または一部は、手動的に行われてもよい。また、手動的に行われるものとして説明した処理の全部または一部は、公知の方法で自動的に行われてもよい。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られるものではない。
[4-14. others〕
Of the above-mentioned processes, all or part of the processes described as being automatically performed may be performed manually. In addition, all or part of the processing described as being performed manually may be performed automatically by a known method. In addition, the processing procedure, specific name, and information including various data and parameters shown in the above document and drawings can be arbitrarily changed unless otherwise specified. For example, the various information shown in each figure is not limited to the information shown in the figure.

また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されなくともよい。すなわち、各装置の分散・統合の具体的形態は図示のものに限られない。また、各構成要素は、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成してもよい。 Further, each component of each of the illustrated devices is a functional concept, and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of distribution / integration of each device is not limited to the one shown in the figure. Further, each component may be functionally or physically distributed / integrated in any unit according to various loads, usage conditions, etc., in whole or in part thereof.

例えば、情報処理装置100によって実行される提供処理は、端末装置30によって実行されてもよい。この場合、端末装置30は、情報処理装置100の機能構成を有する。 For example, the providing process executed by the information processing apparatus 100 may be executed by the terminal apparatus 30. In this case, the terminal device 30 has a functional configuration of the information processing device 100.

また、スピーカ10の代わりに、端末装置30が音声の出力機能を担ってもよい。例えば、スピーカ10の代わりに、対応者によって利用される端末装置30とは異なる他の端末装置が音声の出力機能を担ってもよい。 Further, instead of the speaker 10, the terminal device 30 may have an audio output function. For example, instead of the speaker 10, another terminal device different from the terminal device 30 used by the corresponding person may be responsible for the audio output function.

また、情報処理装置100と、スピーカ10とが一体となったスピーカが内蔵された情報処理装置が上記提供処理を実行してもよい。 Further, an information processing device having a built-in speaker in which the information processing device 100 and the speaker 10 are integrated may execute the above-mentioned provision process.

また、上記してきた各処理は、矛盾しない範囲で適宜組み合わせて実行されてもよい。 In addition, the above-mentioned processes may be appropriately combined and executed within a consistent range.

また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、提供部は、提供手段や提供回路に読み替えることができる。 Further, the above-mentioned "section, module, unit" can be read as "means" or "circuit". For example, the providing unit can be read as a providing means or a providing circuit.

[5.ハードウェア構成]
また、上述した実施形態に係る端末装置30や、情報処理装置100は、例えば、図14に示すような構成のコンピュータ1000によって実現される。図14は、ハードウェア構成の一例を示す図である。コンピュータ1000は、出力装置1010、入力装置1020と接続され、演算装置1030、キャッシュ1040、メモリ1050、出力IF(Interface)1060、入力IF1070、ネットワークIF1080がバス1090により接続される。
[5. Hardware configuration]
Further, the terminal device 30 and the information processing device 100 according to the above-described embodiment are realized by, for example, a computer 1000 having a configuration as shown in FIG. FIG. 14 is a diagram showing an example of a hardware configuration. The computer 1000 is connected to the output device 1010 and the input device 1020, and the arithmetic device 1030, the cache 1040, the memory 1050, the output IF (Interface) 1060, the input IF 1070, and the network IF 1080 are connected by the bus 1090.

演算装置1030は、キャッシュ1040やメモリ1050に格納されたプログラムや入力装置1020から読み出したプログラム等に基づいて動作し、各種の処理を実行する。キャッシュ1040は、RAM等、演算装置1030が各種の演算に用いるデータを一次的に記憶するキャッシュである。また、メモリ1050は、演算装置1030が各種の演算に用いるデータや、各種のデータベースが登録される記憶装置であり、ROM(Read Only Memory)、HDD(Hard Disk Drive)、フラッシュメモリ等により実現されるメモリである。 The arithmetic unit 1030 operates based on a program stored in the cache 1040 or the memory 1050, a program read from the input device 1020, or the like, and executes various processes. The cache 1040 is a cache that temporarily stores data used by the arithmetic unit 1030 for various operations such as RAM. Further, the memory 1050 is a storage device in which data used by the arithmetic unit 1030 for various calculations and various databases are registered, and is realized by a ROM (Read Only Memory), an HDD (Hard Disk Drive), a flash memory, or the like. Memory.

出力IF1060は、モニタやプリンタといった各種の情報を出力する出力装置1010に対し、出力対象となる情報を送信するためのインタフェースであり、例えば、USB(Universal Serial Bus)やDVI(Digital Visual Interface)、HDMI(登録商標)(High Definition Multimedia Interface)といった規格のコネクタにより実現されてよい。一方、入力IF1070は、マウス、キーボード、およびスキャナ等といった各種の入力装置1020から情報を受信するためのインタフェースであり、例えば、USB等により実現される。 The output IF 1060 is an interface for transmitting information to be output to an output device 1010 that outputs various information such as a monitor and a printer. For example, USB (Universal Serial Bus), DVI (Digital Visual Interface), and the like. It may be realized by a connector of a standard such as HDMI (registered trademark) (High Definition Multimedia Interface). On the other hand, the input IF 1070 is an interface for receiving information from various input devices 1020 such as a mouse, a keyboard, a scanner, and the like, and is realized by, for example, USB.

例えば、入力装置1020は、CD(Compact Disc)、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等から情報を読み出す装置により実現されてもよい。また、入力装置1020は、USBメモリ等の外付け記憶媒体により実現されてもよい。 For example, the input device 1020 includes an optical recording medium such as a CD (Compact Disc), a DVD (Digital Versatile Disc), and a PD (Phase change rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), and a tape medium. It may be realized by a device that reads information from a magnetic recording medium, a semiconductor memory, or the like. Further, the input device 1020 may be realized by an external storage medium such as a USB memory.

ネットワークIF1080は、ネットワークNを介して他の機器からデータを受信して演算装置1030へ送り、また、ネットワークNを介して演算装置1030が生成したデータを他の機器へ送信する機能を有する。 The network IF 1080 has a function of receiving data from another device via the network N and sending the data to the arithmetic unit 1030, and transmitting the data generated by the arithmetic unit 1030 to the other device via the network N.

ここで、演算装置1030は、出力IF1060や入力IF1070を介して、出力装置1010や入力装置1020の制御を行うこととなる。例えば、演算装置1030は、入力装置1020やメモリ1050からプログラムをキャッシュ1040上にロードし、ロードしたプログラムを実行する。例えば、コンピュータ1000が情報処理装置100として機能する場合、コンピュータ1000の演算装置1030は、キャッシュ1040上にロードされたプログラムを実行することにより、制御部130の機能を実現することとなる。 Here, the arithmetic unit 1030 controls the output device 1010 and the input device 1020 via the output IF 1060 and the input IF 1070. For example, the arithmetic unit 1030 loads a program from the input device 1020 or the memory 1050 onto the cache 1040, and executes the loaded program. For example, when the computer 1000 functions as the information processing device 100, the arithmetic unit 1030 of the computer 1000 realizes the function of the control unit 130 by executing the program loaded on the cache 1040.

以上、本願の実施形態を図面に基づいて詳細に説明した。しかしながら、これらは例示であり、本願の実施形態は、発明の開示の欄に記載の態様を始めとして、所謂当業者の知識に基づいて種々の変形、改良を施した他の形態で実施することが可能である。 The embodiments of the present application have been described in detail with reference to the drawings. However, these are examples, and the embodiments of the present application shall be carried out in other embodiments which have been modified or improved in various ways based on the knowledge of those skilled in the art, including the embodiments described in the disclosure column of the invention. Is possible.

N ネットワーク
1、2、3、4、5、6 情報処理システム
10 スピーカ
20、21、22 センサ
30 端末装置
100 情報処理装置
110 通信部
120 記憶部
121 推定情報記憶部
122 発話情報記憶部
123 音声情報記憶部
130 制御部
131 取得部
132 推定部
133 提供部
N Network 1, 2, 3, 4, 5, 6 Information processing system 10 Speaker 20, 21, 22 Sensor 30 Terminal device 100 Information processing device 110 Communication unit 120 Storage unit 121 Estimated information storage unit 122 Speech information storage unit 123 Voice information Storage unit 130 Control unit 131 Acquisition unit 132 Estimating unit 133 Providing unit

Claims (17)

対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得する取得部と、
前記検知情報に応じた前記対象者を所定の状態に誘導するための発話に関する発話情報を提供する提供部と
を備えることを特徴とする情報処理装置。
An acquisition unit that acquires detection information detected by a detection means that detects the state of the target person supported by the responder,
An information processing apparatus including a providing unit that provides utterance information regarding utterances for guiding the target person to a predetermined state according to the detection information.
前記検知情報に基づいて、前記対象者の感情に関する情報を推定する推定部をさらに備え、
前記提供部は、
前記推定部によって推定された対象者の感情に応じて、前記対象者を所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1に記載の情報処理装置。
Further, an estimation unit for estimating information about the emotion of the subject based on the detection information is provided.
The providing part
The information processing apparatus according to claim 1, further comprising providing utterance information for guiding the subject to a predetermined state according to the emotion of the subject estimated by the estimation unit.
前記提供部は、
前記所定の状態として、落ち着いた状態に誘導するための発話情報を提供する
ことを特徴とする請求項2に記載の情報処理装置。
The providing part
The information processing apparatus according to claim 2, further comprising providing utterance information for inducing a calm state as the predetermined state.
前記提供部は、
前記検知情報に応じた前記対象者を前記所定の状態に誘導するための発話情報を提供しつつ、前記対応者に対して、前記対象者に対する提案行動に関する情報を提供する
ことを特徴とする請求項1~3のいずれか1つに記載の情報処理装置。
The providing part
A claim characterized by providing information on a proposed action to the target person to the responder while providing utterance information for guiding the target person to the predetermined state according to the detection information. Item 6. The information processing apparatus according to any one of Items 1 to 3.
前記取得部は、
前記検知手段によって検知された対応者に関する検知情報を取得し、
前記提供部は、
前記検知情報に応じた前記対応者を所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1~4のいずれか1つに記載の情報処理装置。
The acquisition unit
Acquire the detection information about the responder detected by the detection means, and
The providing part
The information processing apparatus according to any one of claims 1 to 4, wherein the information processing apparatus is provided with utterance information for guiding the responder to a predetermined state according to the detection information.
前記提供部は、
前記対応者に関する検知情報に基づいて推定された前記対応者の感情が怒りの感情を示す場合、前記対象者を所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項5に記載の情報処理装置。
The providing part
5. The fifth aspect of the present invention is to provide utterance information for guiding the target person to a predetermined state when the feeling of the corresponding person, which is estimated based on the detection information about the corresponding person, shows an emotion of anger. The information processing device described in.
前記提供部は、
前記対応者に関する検知情報に基づいて推定された前記対応者の感情が怒りの感情を示す場合、前記対応者を所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項5又は6に記載の情報処理装置。
The providing part
5. Claim 5 is characterized in that when the emotion of the responder estimated based on the detection information about the responder shows an emotion of anger, the utterance information for guiding the responder to a predetermined state is provided. Or the information processing apparatus according to 6.
前記提供部は、
前記対応者に関する検知情報に基づいて推定された前記対応者の行動に応じて、前記対象者を所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項5~7のいずれか1つに記載の情報処理装置。
The providing part
Any of claims 5 to 7, wherein the utterance information for guiding the target person to a predetermined state is provided according to the behavior of the corresponding person estimated based on the detection information about the corresponding person. The information processing device described in one.
前記提供部は、
前記対象者に関する検知情報に基づいて推定された前記対象者の行動に応じて、前記対象者を所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1~8のいずれか1つに記載の情報処理装置。
The providing part
Any of claims 1 to 8, wherein the speech information for guiding the target person to a predetermined state is provided according to the behavior of the target person estimated based on the detection information about the target person. The information processing device described in one.
前記提供部は、
前記発話情報として、前記対象者を褒めるための発話に関する発話情報を提供する
ことを特徴とする請求項9に記載の情報処理装置。
The providing part
The information processing apparatus according to claim 9, wherein the utterance information is provided with utterance information related to the utterance for complimenting the target person.
前記取得部は、
前記検知手段によって検知された対象者に関する検知情報と、前記対応者に関する検知情報とを取得し、
前記提供部は、
前記対象者に関する検知情報と、前記対応者に関する検知情報との組合せに応じた前記対象者又は前記対応者を所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1~10のいずれか1つに記載の情報処理装置。
The acquisition unit
The detection information about the target person detected by the detection means and the detection information about the corresponding person are acquired, and the detection information is acquired.
The providing part
Claims 1 to 1 to provide utterance information for guiding the target person or the corresponding person to a predetermined state according to a combination of the detection information about the target person and the detection information about the corresponding person. The information processing apparatus according to any one of 10.
前記取得部は、
前記検知手段によって検知された対象者の音声に関する音声情報を取得し、
前記提供部は、
前記音声情報に応じた前記対象者を前記所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1~11のいずれか1つに記載の情報処理装置。
The acquisition unit
Acquires voice information about the voice of the target person detected by the detection means, and obtains voice information.
The providing part
The information processing apparatus according to any one of claims 1 to 11, wherein the information processing apparatus is provided with utterance information for guiding the target person to the predetermined state in response to the voice information.
前記取得部は、
前記検知手段によって検知された対応者の音声情報を取得し、
前記提供部は、
前記音声情報に応じた前記対応者を前記所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1~12のいずれか1つに記載の情報処理装置。
The acquisition unit
The voice information of the corresponding person detected by the detection means is acquired, and the voice information is obtained.
The providing part
The information processing apparatus according to any one of claims 1 to 12, characterized in that it provides utterance information for guiding the corresponding person to the predetermined state in response to the voice information.
前記取得部は、
前記検知手段によって検知された対象者の生体情報を取得し、
前記提供部は、
前記生体情報に応じた前記対象者を前記所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1~13のいずれか1つに記載の情報処理装置。
The acquisition unit
Acquiring the biological information of the subject detected by the detection means,
The providing part
The information processing apparatus according to any one of claims 1 to 13, further comprising providing utterance information for guiding the subject to the predetermined state according to the biological information.
前記取得部は、
前記検知手段によって検知された対応者の生体情報を取得し、
前記提供部は、
前記生体情報に応じた前記対応者を前記所定の状態に誘導するための発話情報を提供する
ことを特徴とする請求項1~14のいずれか1つに記載の情報処理装置。
The acquisition unit
Acquiring the biometric information of the responder detected by the detection means,
The providing part
The information processing apparatus according to any one of claims 1 to 14, further comprising providing utterance information for guiding the corresponding person to the predetermined state according to the biological information.
コンピュータが実行する情報処理方法であって、
対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得する取得工程と、
前記検知情報に応じた前記対象者を所定の状態に誘導するための発話に関する発話情報を提供する提供工程と
を含むことを特徴とする情報処理方法。
It is an information processing method executed by a computer.
The acquisition process of acquiring the detection information detected by the detection means that detects the state of the target person to be dealt with by the responder,
An information processing method comprising a providing step of providing utterance information regarding utterances for guiding the target person to a predetermined state according to the detection information.
対応者によって対応される対象者の状態を検知する検知手段によって検知された検知情報を取得する取得手順と、
前記検知情報に応じた前記対象者を所定の状態に誘導するための発話に関する発話情報を提供する提供手順と
をコンピュータに実行させることを特徴とする情報処理プログラム。
The acquisition procedure for acquiring the detection information detected by the detection means that detects the state of the target person supported by the responder, and
An information processing program characterized by causing a computer to execute a provision procedure for providing utterance information regarding utterances for guiding the target person to a predetermined state according to the detection information.
JP2020210750A 2020-12-18 2020-12-18 Information processing device, information processing method, and information processing program Pending JP2022097269A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020210750A JP2022097269A (en) 2020-12-18 2020-12-18 Information processing device, information processing method, and information processing program
CN202111432224.6A CN114648995A (en) 2020-12-18 2021-11-29 Information processing apparatus, method, and program, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020210750A JP2022097269A (en) 2020-12-18 2020-12-18 Information processing device, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
JP2022097269A true JP2022097269A (en) 2022-06-30

Family

ID=81992459

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020210750A Pending JP2022097269A (en) 2020-12-18 2020-12-18 Information processing device, information processing method, and information processing program

Country Status (2)

Country Link
JP (1) JP2022097269A (en)
CN (1) CN114648995A (en)

Also Published As

Publication number Publication date
CN114648995A (en) 2022-06-21

Similar Documents

Publication Publication Date Title
Pascalis et al. On the links among face processing, language processing, and narrowing during development
Hwang et al. TalkBetter: family-driven mobile intervention care for children with language delay
JP2018514815A (en) Presentation of customized learning content for infants based on developmental age, customized learning content based on parental preferences, customized educational playlists, and automated systems for detecting infant performance
Bourvis et al. Pre-linguistic infants employ complex communicative loops to engage mothers in social exchanges and repair interaction ruptures
US11751813B2 (en) System, method and computer program product for detecting a mobile phone user's risky medical condition
TWI795663B (en) personal assistant control system
JP7422797B2 (en) Medical treatment support system
CN113375310B (en) Control method and device for air conditioner and air conditioner
Kalashnikova et al. Infant‐directed speech to infants at risk for dyslexia: A novel cross‐dyad design
CN111191483A (en) Nursing method, nursing device and storage medium
WO2021124540A1 (en) Infant and toddler nursing assist system and sending-to-sleep start detection device
JP2022097269A (en) Information processing device, information processing method, and information processing program
WO2023171708A1 (en) Information processing system, information processing method, and program
d'Elia Attachment: A biological basis for the therapeutic relationship?
KR102346158B1 (en) Emotional Intelligence Education AI Speaker System
JP7382760B2 (en) Medical support equipment and programs
Hansen et al. Active listening and expressive communication for children with hearing loss using getatable environments for creativity
Cruz-Sandoval et al. Towards an adaptive conversational robot using biosignals
KR102039366B1 (en) Apparatus of outputting sound for giving comfort to newborn
US20190254532A1 (en) Baby language translation system and method of using the same
CN109124656A (en) Information processing unit, terminal, system and information processing method
US11776373B2 (en) System and method for detecting child distress and generating suggestion for relieving child distress
JP6900089B2 (en) Personal assistant control system
JP7135886B2 (en) Prompting utterance device, prompting utterance method and program
WO2023132218A1 (en) Information processing device, information processing method, and information processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231212