JP2019009666A - Information processing method and information processing device - Google Patents
Information processing method and information processing device Download PDFInfo
- Publication number
- JP2019009666A JP2019009666A JP2017124806A JP2017124806A JP2019009666A JP 2019009666 A JP2019009666 A JP 2019009666A JP 2017124806 A JP2017124806 A JP 2017124806A JP 2017124806 A JP2017124806 A JP 2017124806A JP 2019009666 A JP2019009666 A JP 2019009666A
- Authority
- JP
- Japan
- Prior art keywords
- child
- notification
- state
- adult
- destination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本開示は、情報処理方法、及び、情報処理装置に関する。 The present disclosure relates to an information processing method and an information processing apparatus.
子育てに関する情報共有を行うシステムにおいて、従来は子供の音声から子供の状態を診断し、子供から離れた場所にいる保護者(育児者、例えば、子供の母親)に子供の状態を通知する方法が提案されている。 In a system for sharing information on child-raising, there is a conventional method for diagnosing a child's condition from a child's voice and notifying a parent (childcare person, for example, a child's mother) who is away from the child of the child's condition. Proposed.
例えば、特許文献1では、子供の泣き声を検知し、子供の泣き声が所定の時間以上継続して発せられたことを条件として保護者の端末に状況を通知する技術が開示されている。
For example,
しかし、特許文献1が開示する技術では、子供の状況のみを診断し、その診断結果を離れた場所にいる育児者に通知する。この技術では、子供と育児者とが共に過ごしている状況に関する情報を、他の育児者(例えば子供の父親)と共有することができない。
However, in the technique disclosed in
そこで、本発明は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法を提供する。 Therefore, the present invention provides an information processing method that supports further deepening the understanding of other child-caregivers about the situation where the child and the child-caregiver spend together.
本発明の一態様に係る情報処理方法は、プロセッサを用いて、収音装置による収音により得られる音情報を取得し、前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、識別された前記子供の音声に基づいて、前記子供の状態を判定し、識別された前記大人の音声に基づいて、前記大人の状態を判定し、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、生成された前記通知を前記宛先へ送信する。 An information processing method according to one embodiment of the present invention uses a processor to acquire sound information obtained by sound collection by a sound collection device, and outputs a child's voice and an adult's voice included in the sound indicated by the sound information. Identifying, determining the state of the child based on the identified voice of the child, determining the state of the adult based on the identified voice of the adult, and determining the state of the child; and The notification is generated according to the determined adult state and the notification destination regarding the adult state, and the generated notification is transmitted to the destination.
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。 Note that these comprehensive or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM, and the system, method, integrated circuit, and computer program. And any combination of recording media.
本発明の情報処理方法は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援できる。 The information processing method of the present invention can assist in further deepening the understanding of other child-care workers about the situation where the child and the child-care worker are spending time together.
(本発明の基礎となった知見)
特許文献1が開示する技術では、子供の状況のみを診断し、その診断結果を離れた場所にいる育児者(例えば子供の母親)に通知する。この技術は、子供と共に過ごしている育児者に関する情報を、他の育児者(例えば子供の父親)又は関係者(例えば子供の祖父母)に通知するものではない。よって、これだけでは、育児者に関する情報についての他の育児者などの理解が得られない。そのため、他の育児者又は関係者に育児の状況を把握させようとする際には、育児者自らが通知を行うことを要する。育児者自らが独自に、他の育児者又は関係者に通知を行うと、他の育児者又は関係者に、意図と異なる不適切な印象を与えてしまうという問題を生じ得る。不適切な印象を与えてしまった場合には、再度の通知を行う必要が生じ、その通知のための時間又は電力などを余計に消費するという問題も生じ得る。
(Knowledge that became the basis of the present invention)
In the technique disclosed in
そこで、本発明は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法を提供する。 Therefore, the present invention provides an information processing method that supports further deepening the understanding of other child-caregivers about the situation where the child and the child-caregiver spend together.
このような問題を解決するために、本発明の一態様に係る情報処理方法は、プロセッサを用いて、収音装置による収音により得られる音情報を取得し、前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、識別された前記子供の音声に基づいて、前記子供の状態を判定し、識別された前記大人の音声に基づいて、前記大人の状態を判定し、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、生成された前記通知を前記宛先へ送信する。 In order to solve such a problem, an information processing method according to one embodiment of the present invention acquires sound information obtained by sound collection by a sound collection device using a processor, and includes the sound information indicated by the sound information. Identifying the voice of the child and the voice of the adult, determining the state of the child based on the identified voice of the child, and determining the state of the adult based on the identified voice of the adult The notification is generated according to the determined state of the child, the determined state of the adult, and a notification destination regarding the adult state, and the generated notification is transmitted to the destination To do.
上記態様によれば、子供と大人の状態とに応じて生成される通知を宛先に送信する。また、通知は、通知の宛先に応じて生成される。大人がその子供の育児者(例えば母親)であり、通知の宛先が、その子供の他の育児者(例えば父親又は祖父母)である場合、子供と母親の状態を示す通知が、その宛先(つまり父親であるのか、又は、祖父母であるのか等)に応じて生成され送信される。宛先に応じて生成された情報が通知されるので、宛先である他の育児者の理解が得られやすい。よって、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援することができる。 According to the said aspect, the notification produced | generated according to the state of a child and an adult is transmitted to a destination. The notification is generated according to the notification destination. If the adult is the child's parent (e.g., mother) and the notification is addressed to the child's other child (e.g., father or grandparent), a notification that indicates the status of the child and mother is Whether it is a father or a grandparent). Since the information generated in accordance with the destination is notified, it is easy to obtain the understanding of other childcare persons who are the destination. Therefore, it can support further deepening the understanding of other child-care workers about the situation where the child and the child-care worker spend together.
例えば、前記通知を生成することは、前記宛先に応じて異なる表現又は内容を有する前記通知を生成することを含んでもよい。 For example, generating the notification may include generating the notification having a different expression or content depending on the destination.
上記態様によれば、通知の宛先である他の育児者、例えば、父親又は祖父母に応じて異なる表現又は内容によって、その宛先に通知がなされる。通知がその宛先に応じて適切な表現又は内容を有していることで、通知の宛先である他の育児者の理解をより一層深めることを支援することができる。 According to the said aspect, the notification is made to the address | destination by the expression or content which changes with the other childcare person who is the address | destination of notification, for example, father or grandparents. When the notification has an appropriate expression or content according to the destination, it is possible to help deepen the understanding of other child-care workers who are the destination of the notification.
例えば、前記通知を生成することは、前記宛先に応じて表現又は内容が異なる図柄又は文章であって前記大人の状態を示す図柄又は文章を含む前記通知を生成することを含んでもよい。 For example, generating the notification may include generating the notification including a symbol or a sentence having a different expression or content depending on the destination and indicating the adult state.
上記態様によれば、図柄又は文章を含む通知が送信される。通知に含まれる図柄又は文章によって、通知の宛先である他の育児者は、文字情報の場合より、より直観的に通知の内容を把握できる。 According to the said aspect, the notification containing a design or a text is transmitted. By the design or text included in the notification, the other childcare person who is the destination of the notification can grasp the content of the notification more intuitively than the case of the character information.
例えば、前記通知を生成することは、生成される前記通知が前記大人の状態を示す図柄又は文章を含むか含まないかが、前記宛先に応じて異なる、前記通知を生成することを含んでもよい。 For example, generating the notification may include generating the notification depending on whether the generated notification includes or does not include a graphic or a sentence indicating the adult state.
上記態様によれば、通知に図柄又は文章を含むか否かを、宛先に応じて異ならせることができる。通知の宛先によっては、通知に図柄又は文章を含むことが適切でないこともあり得るので、このような場合に図柄又は文章を含まない通知を送信するのが適切である。この態様によれば、図柄又は文章を含む通知が適切である宛先には図柄を含む通知を送信し、図柄又は文章を含まない通知が適切である宛先には図柄又は文章を含まない通知を送信し得る。 According to the above aspect, whether the notification includes a symbol or a sentence can be made different depending on the destination. Depending on the destination of the notification, it may not be appropriate to include a design or text in the notification. In such a case, it is appropriate to transmit a notification that does not include the design or text. According to this aspect, a notification including a symbol is transmitted to a destination for which a notification including a symbol or a sentence is appropriate, and a notification including no symbol or a sentence is transmitted to a destination for which a notification including no symbol or a sentence is appropriate. Can do.
例えば、前記図柄又は前記文章の表現又は内容は、前記宛先の属性に応じて異なってもよい。 For example, the representation or content of the symbol or the sentence may be different depending on the attribute of the destination.
上記態様によれば、通知に含まれる図柄又は文章の表現又は内容を、宛先の属性に応じて異ならせることができる。ここで宛先の属性とは、男性、女性、母方又は父方などを意味する。そして、宛先の属性に応じて適切な表現の文章を含む通知を送信し得る。 According to the said aspect, the expression or content of the pattern or text contained in notification can be varied according to the attribute of a destination. Here, the destination attribute means male, female, maternal or paternal. Then, a notification including a sentence with an appropriate expression can be transmitted according to the destination attribute.
例えば、前記通知を生成することは、判定された前記子供の状態、および、判定された前記大人の状態の少なくとも一方に応じて指標を算出し、算出した前記指標が閾値より高い場合にのみ、前記通知を生成することを含んでもよい。 For example, generating the notification calculates an index according to at least one of the determined child state and the determined adult state, and only when the calculated index is higher than a threshold value, It may include generating the notification.
上記態様によれば、子供の状態、又は、大人の状態から算出される指標に基づいて、通知を生成するか否かを制御できる。これにより、具体的かつ定量的に、通知を生成するか否かを制御することができる。 According to the said aspect, it can control whether notification is produced | generated based on the parameter | index calculated from the state of a child or the state of an adult. Thereby, it is possible to control whether to generate a notification specifically and quantitatively.
例えば、前記通知を生成することは、判定された前記子供の状態、および、判定された前記大人の状態の少なくとも一方に応じて指標を算出し、算出した前記指標が大きいほど、より大きな図柄を含む前記通知を生成することを含んでもよい。 For example, generating the notification calculates an index according to at least one of the determined state of the child and the determined state of the adult, and the larger the calculated index, the larger the symbol Generating said notification including.
上記態様によれば、子供の状態、又は、大人の状態から算出される指標に基づいて、通知に含まれる図柄の大きさを制御できる。これにより、具体的かつ定量的に、通知に含まれる図柄の大きさを制御し、通知の宛先である他の育児者の理解をより一層深めることに貢献し得る。 According to the said aspect, the magnitude | size of the symbol contained in notification is controllable based on the parameter | index calculated from the state of a child or the state of an adult. Thereby, it is possible to control the size of the symbols included in the notification in a specific and quantitative manner, and contribute to deepening the understanding of other child-care workers who are the notification destinations.
例えば、前記通知を生成することは、前記大人の状態を示す情報を入力装置を介して受け付け、受け付けた前記情報を、前記子供が発した形式の情報又は前記子供の状態を示す情報に変換することで、前記通知を生成することを含んでもよい。 For example, generating the notification accepts information indicating the adult state via an input device, and converts the received information into information in a form issued by the child or information indicating the child state. This may include generating the notification.
上記態様によれば、状態を表す情報を、子供が発したかのような情報、又は、子供の状態を示す情報に変換して宛先である他の育児者に送信することで、他の育児者の理解をより一層深めることに貢献し得る。 According to the above aspect, the information representing the state is converted into information indicating that the child has emitted, or the information indicating the child's state, and transmitted to the other childcare person who is the destination. It can contribute to deepening the understanding of the person.
例えば、前記宛先は、判定された前記子供の状態、および、判定された前記大人の状態に応じて定められてもよい。 For example, the destination may be determined according to the determined state of the child and the determined state of the adult.
上記態様によれば、通知の宛先が、子供の状態及び大人の状態に基づいて定められる。子供の状態及び大人の状態によっては、特定の宛先に通知することが不適切で場合があり得る。このような場合には、当該特定の宛先に通知しないようにすることができる。 According to the above aspect, the notification destination is determined based on the state of the child and the state of the adult. Depending on the condition of the child and the adult, it may be inappropriate to notify a specific destination. In such a case, it is possible not to notify the specific destination.
例えば、さらに、前記音情報が示す音に含まれる環境音を識別し、前記大人の状態を判定することは、識別された前記大人の音声、および、前記環境音に基づいて、前記大人の状態を判定することを含んでもよい。 For example, the environmental sound included in the sound indicated by the sound information is further identified, and the adult state is determined based on the identified adult voice and the environmental sound. May be included.
上記態様によれば、大人の状態を判定するためにさらに環境音が用いられる。そして、さらに環境音に基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。 According to the above aspect, the environmental sound is further used to determine the adult state. Further, a notification is generated and transmitted according to the adult state determined based on the environmental sound. Thereby, an adult's state can be determined in detail, and notification is generated and transmitted based on this detailed determination.
例えば、前記情報処理方法では、さらに、人を検知するセンサによる検知結果を取得し、前記大人の状態を判定することは、識別された前記大人の音声、および、前記検知結果に基づいて、前記大人の状態を判定することを含んでもよい。 For example, in the information processing method, the detection result by a sensor that detects a person is acquired, and the determination of the adult state is based on the identified adult voice and the detection result. It may include determining an adult state.
上記態様によれば、大人の状態を判定するためにさらにセンサが用いられる。そして、さらにセンサに基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。 According to the above aspect, the sensor is further used to determine the adult state. Further, a notification is generated and transmitted according to the adult state determined based on the sensor. Thereby, an adult's state can be determined in detail, and notification is generated and transmitted based on this detailed determination.
例えば、前記情報処理方法では、さらに、前記宛先の位置を示す位置情報を取得し、前記通知を前記宛先へ送信することは、前記位置情報を参照して、前記宛先が所定の位置にいることに応じて前記通知を前記宛先へ送信することを含んでもよい。 For example, in the information processing method, acquiring the position information indicating the position of the destination and transmitting the notification to the destination is that the destination is at a predetermined position with reference to the position information. In response to sending the notification to the destination.
上記態様によれば、通知の宛先である他の育児者の位置に応じて通知を送信し得る。他の育児者が通知を確認しやすい状態において通知を送信することにより、他の育児者が通知を認識する確実性が向上し得る。 According to the said aspect, notification can be transmitted according to the position of the other childcare person who is the destination of notification. By transmitting the notification in a state in which the other childcare person can easily confirm the notification, the certainty that the other childcare person can recognize the notification can be improved.
例えば、前記所定の位置は、乗り物に係る乗降記録機が設置されている位置であり、前記宛先に係る人が携帯する端末による近接無線通信を用いて前記乗降記録機と通信したことに応じて、前記通知を前記宛先へ送信することを含んでもよい。 For example, the predetermined position is a position where a boarding / recording device related to a vehicle is installed, and in response to communication with the boarding / recording device using proximity wireless communication by a terminal carried by a person related to the destination , Sending the notification to the destination.
上記態様によれば、他の育児者が通知を確認しやすいタイミングとして、他の育児者が乗り物に乗降したことに応じて通知を送信する。これにより、他の育児者が通知を認識する確実性がより一層向上し得る。 According to the above aspect, the notification is transmitted in response to the fact that another child-care worker gets on or off the vehicle as a timing at which the other child-care worker can easily confirm the notification. Thereby, the certainty that other child-care workers recognize the notification can be further improved.
また、本発明の一態様に係る情報処理装置は、収音装置による収音により得られる音情報が示す音に含まれる、子供の音声および大人の音声を識別する識別部と、識別された前記子供の音声に基づいて、前記子供の状態を判定する子供状態判定部と、識別された前記大人の音声に基づいて、前記大人の状態を判定する大人状態判定部と、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成する生成部と、生成された前記通知を前記宛先へ送信する送信部とを備える。 An information processing apparatus according to an aspect of the present invention includes an identification unit that identifies a child's voice and an adult's voice included in the sound indicated by the sound information obtained by sound collection by the sound collection device, and the identified A child state determination unit that determines the state of the child based on the voice of the child, an adult state determination unit that determines the state of the adult based on the voice of the identified adult, and the determined child A generation unit that generates the notification according to the state, the determined adult state, and a destination of the notification about the adult state; and a transmission unit that transmits the generated notification to the destination Is provided.
これにより、上記情報処理方法と同様の効果を奏する。 Thereby, there exists an effect similar to the said information processing method.
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。 Note that these comprehensive or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM, and the system, method, integrated circuit, and computer program. Alternatively, it may be realized by any combination of recording media.
以下、実施の形態について、図面を参照しながら具体的に説明する。 Hereinafter, embodiments will be specifically described with reference to the drawings.
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。 It should be noted that each of the embodiments described below shows a comprehensive or specific example. The numerical values, shapes, materials, constituent elements, arrangement positions and connecting forms of the constituent elements, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present invention. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements.
(実施の形態1)
本実施の形態において、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法などについて説明する。
(Embodiment 1)
In the present embodiment, an information processing method and the like for assisting in further deepening the understanding of other child-care workers regarding the situation where the child and the child-care worker spend together will be described.
まず、本発明者らが目指すサービスの概要について図1を参照しながら説明する。 First, an overview of services aimed by the present inventors will be described with reference to FIG.
図1は、本実施の形態における情報処理システム1が提供するサービスの概要を示す説明図である。
FIG. 1 is an explanatory diagram showing an overview of services provided by the
本発明者らは、子供の状態を遠隔にいる育児者に通知する技術分野において、子供の状態からだけでは見えない育児の大変さなどのネガティブな部分、または幸福感などのポジティブな部分を、他の育児者又は関係者と共有する技術に着目している。そして、上記のネガティブな部分又はポジティブな部分を他の育児者又は関係者に伝え、育児の状況の理解をより一層深めることを目指している。 In the technical field of notifying childcare persons who are remotely informed of a child's condition, the present inventors have described a negative part such as difficulty of childcare that cannot be seen only from the state of the child, or a positive part such as happiness. Focuses on technologies shared with other childcare workers or related parties. Then, the above-mentioned negative part or positive part is communicated to other child-rearing persons or related persons, aiming to deepen the understanding of the situation of child-rearing.
なお、ここで「子供」とは、乳幼児を指し、より具体的には、生後0日から、6〜7歳までの人を指すが、これに限定されない。 Here, “child” refers to an infant, and more specifically, refers to a person from the first day of life to 6 to 7 years old, but is not limited thereto.
図1に示されるように、本実施の形態における情報処理システム1では、宅内にマイクロフォンなどの音を取得する入力端末10が配置される。そして、情報処理システム1は、入力端末10により取得した音に基づいて、子供の音声と育児者の音声とを分析することで両者それぞれの状態を判定し、その状態を示す情報を他の育児者と共有すべきか否かを判断して情報を提示する。提示される情報は、他の育児者に提示されることが想定される。
As shown in FIG. 1, in the
なお、上記「育児者」が子供の母親であり、上記「他の育児者」が子供の父親であり、「関係者」が子供の祖父母である場合を例として説明するが、これに限定されない。より一般的には、上記「育児者」及び上記「他の育児者」ともに、大人でありさえすれば本実施の形態が適用され得る。なお、「大人」は、子供でない人とも表現され得る。 In addition, although the case where the “childcare person” is the mother of the child, the “other childcare person” is the father of the child, and the “participant” is the child's grandparent is described as an example, the present invention is not limited thereto. . More generally, as long as both the “childcare worker” and the “other childcare worker” are adults, this embodiment can be applied. “Adult” can also be expressed as a person who is not a child.
これにより、父親は、従来技術では把握できない育児の状況を把握することができる。また、父親は、育児の状況に加えて、日々の育児及び家事における、母親にとって負荷が極めて高いタイミング、または、母親にとっての幸福なタイミングを知ることができる。父親がこれらのタイミングを知ることができれば、これらのことについて後に夫婦で話す時間を設けるなどして、その事象についての詳しい情報を夫婦で共有することができる。このように、本実施の形態の情報処理システム1は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する。
Thereby, the father can grasp the situation of child care that cannot be grasped by the conventional technology. Further, in addition to the situation of childcare, the father can know the timing when the burden on the mother is extremely high or the happiness time for the mother in daily childcare and housework. If the father knows these timings, the couple can share detailed information about the event, such as by giving them time to talk about these things later. As described above, the
以降において、本実施の形態の情報処理システム1等について詳しく説明する。
Hereinafter, the
図2は、本実施の形態における情報処理システム1の機能を示すブロック図である。
FIG. 2 is a block diagram illustrating functions of the
図2に示されるように、情報処理システム1は、入力部101と、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108と、送信部109と、表示部110とを備える。
As shown in FIG. 2, the
入力部101は、収音装置により周囲の音を収音し、収音した音を示す音情報を生成する入力装置である。入力部101は、例えば、マイクロフォンである。
The
識別部102は、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、および、母親の音声を識別する。例えば、識別部102が子供の音声、および、母親の音声を識別する際には、子供の音声の周波数が比較的高く、母親の音声の周波数が比較的低いという特徴を利用して、所定より低い周波数を子供の音声と識別し、所定より高い周波数を母親の音声と識別することができる。
The
子供状態判定部103は、識別部102により識別された子供の音声を分析することで、子供の状態を判定する処理部である。
The child
母親状態判定部104は、識別部102により識別された母親の音声を分析することで、母親の状態を判定する処理部である。
The mother
保持部105は、子供状態判定部103により判定された子供の状態を一時的に、又は、恒久的に保持する記憶装置である。
The holding
保持部106は、母親状態判定部104により判定された母親の状態を一時的に、又は、恒久的に保持する記憶装置である。
The holding
共有判定部107は、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態とに基づいて、これらの状態を示す情報を予め登録されている宛先(例えば父親又は祖父母)と共有すべきか否かを判定する処理部である。
Based on the state of the child held in the holding
生成部108は、予め登録された人物と共有すべきと共有判定部107により判定されたことに応じて、予め登録されている宛先(例えば父親又は祖父母)に提示すべき通知を生成する処理部である。通知の生成の際には、当該通知の宛先に応じて、通知が生成される。通知の内容等については、後で詳しく説明する。
The
送信部109は、生成部108により生成された画像を父親又は祖父母の携帯端末に送信する処理部である。送信部109は、画像を示す情報を送信するための送信回路、及び、コネクタ又はアンテナなどを含む。
The
表示部110は、送信部109により送信された画像を表示する表示部である。表示部110は、例えば、携帯電話又はスマートフォンなどの携帯端末の表示画面である。
The
なお、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108とは、例えば、プロセッサがメモリを用いて、記憶装置等に保存された所定のプログラムを実行することで実現され得る。
The
なお、識別部102が、入力部101から取得した音情報が示す音から子供の音声を識別する技術は、例えば、公知の子供音声識別技術であるxauris(ゾウリス)を用いて実現され得る。xaurisは、開発者らがあらかじめ集めた子供の音声と状態との関係を示す学習データからディープラーニングを用いて構築された学習モデルを用いて、実行環境において入力された子供の音声から子供の状態を「泣き」、「笑い」、「ぐずり」、「喃語(言葉にならない発話)」の4種類に識別する。よって、識別部102が行う処理のうちの子供の音声を識別する処理と、子供状態判定部103が行う処理とは、xaurisで実現され得る。この場合、子供状態判定部103の判定結果として、「泣き」、「笑い」、「ぐずり」及び「喃語」の4種類の状態が保持部105に格納される。
In addition, the technique which the
また、識別部102が、入力部101から取得した音情報が示す音から母親の音声を識別する技術は、公知の話者識別技術を用いて実現され得る。話者識別技術は、さまざまな要素技術により構成されるが、例えば、基本周波数と特定の帯域のスペクトル包絡特性とを用いて検出する方法が採用され得る。ただし、話者識別技術を用いる代わりに、マイクロフォンのような収音デバイスを母親の衣類または装飾品に装着または搭載し、この収音デバイスが取得する音声が母親の音声であると識別する方法を採用してもよい。
Moreover, the technique in which the
なお、母親状態判定部104が、識別部102により識別された母親の音声を分析して母親の状態を判定する技術は、公知の感情解析エンジンを用いて実現され得る。例えば、感情解析エンジンは、人の声を「言葉」としてではなく、「音(トーン)」として捕え、音から人の感情を数値化する。出力される感情は、例えば、「怒り」、「集中」、「困惑」、「興奮」、「思考」、「ストレス」、「躊躇」、「幸福感」、「興味・関心」、「悲しみ・不満」などがある。ここでは、母親状態判定部104が、上記のように「怒り」等の感情を出力する場合を例として説明する。母親状態判定部104の判定結果は、例えば、「怒り:5」、「集中:8」、「困惑:2」というように、感情と数値との組み合わせとして保持部106に格納される。
The technique in which the mother
なお、情報処理システム1は、例えば、入力端末10と、サーバ20と、表示端末30とを備えて構成される。入力端末10とサーバ20との間、及び、サーバ20と表示端末30との間はネットワーク(不図示)により通信可能に接続されている。情報処理システム1が備える上記の機能ブロックは、入力端末10と、サーバ20と、表示端末30とが分担して備える。
Note that the
例えば、入力端末10は、母親のスマートフォンなどの携帯端末、又は、収音装置と通信機能とを有する専用装置などを採用し得る。サーバ20は、入力端末10及び表示端末30とネットワークを介して通信可能に接続され得るサーバ装置、いわゆるクラウドサーバなどを採用し得る。表示端末30は、父親のスマートフォン等の携帯端末を採用し得る。
For example, the
そして、入力端末10が入力部101を備える。サーバ20が、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108と、送信部109とを備える。表示端末30が表示部110を備える。
The
この場合、入力端末10は、入力部101が生成した音情報をネットワークを通じてサーバ20の識別部102に送信する。また、サーバ20は、送信部109が送信する画像等のデータをネットワークを通じて表示端末30の表示部110に送信する。
In this case, the
なお、上記の各装置の機能の分担は、あくまで一例であり、他の機能分担を採用することも可能である。 Note that the above-described function sharing of each device is merely an example, and other function sharing may be employed.
図3は、本実施の形態における共有判定部107が判定に用いる条件を示すテーブルT1の説明図である。テーブルT1には、共有判定部107が判定に用いる条件の例である第一条件及び第二条件が示されている。
FIG. 3 is an explanatory diagram of the table T1 showing the conditions used for the determination by the sharing
共有判定部107は、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態とに基づいて、これらの状態を示す情報を父親又は祖父母と共有すべきか否かを判定する。この判定のための条件には、さまざまなものが採用され得るが、例えば、ネガティブな状況において上記情報を共有すべきと判定するための条件(第一条件)と、ポジティブな状況において上記情報を共有すべきと判定するための条件(第二条件)とのいずれかが満たされる場合に、上記情報を父親等と共有すべきと共有判定部107が判定する。以降において、各状況、並びに、第一条件及び第二条件について説明する。
Based on the state of the child held in the holding
(1)ネガティブな状況、及び、第一条件について
ネガティブな状況とは、子供が泣いたりぐずったりしており、かつ、母親が怒りなどのネガティブな感情を抱いている状況を指す。このような状況では、父親又は祖父母による育児若しくは家事の助け、又は、心理面での支えが必要であるので、これらの状態を示す情報を父親又は祖父母と共有すべきであると考えられる。
(1) Negative Situation and First Condition Negative Situation refers to a situation where the child is crying or lazy and the mother has negative emotions such as anger. In such a situation, since it is necessary to support childcare or housework by the father or grandparents or to support psychologically, it is considered that information indicating these states should be shared with the father or grandparents.
第一条件は、保持部105に格納された子供の状態についての条件(「子供の条件」ともいう)と、保持部106に格納された母親の状態についての条件(「母親の条件」ともいう)とにより規定される。具体的には、第一条件は、保持部105に格納された子供の状態が「泣き」または「ぐずり」であり、かつ、母親の感情に基づいて以下の(式1)により算出される第一指標が閾値以上であること、とすることができる。
The first condition is a condition regarding the state of the child stored in the holding unit 105 (also referred to as “child condition”) and a condition regarding the state of the mother stored in the holding unit 106 (also referred to as “mother condition”). ). Specifically, the first condition is that the child state stored in the holding
第一指標=(「怒り」の度合い)+(「ストレス」の度合い)+(「困惑」の度合い)−(「幸福感」の度合い) (式1) First index = (degree of “anger”) + (degree of “stress”) + (degree of “confused”) − (degree of “happiness”) (Formula 1)
ここで、上記の「怒り」等の各感情は、保持部106に格納された、上記時点における母親の状態から取得される。また、例えば、「怒り」等の各感情の度合いが0〜10で評価される場合、第一条件における閾値は例えば15とする。
Here, each emotion such as “anger” is acquired from the state of the mother stored in the holding
なお、第一指標は、当該状態を母親と父親とで共有する重要性を示す指標とも言える。第一指標は、上記の他、1以上のネガティブな感情の度合いの合計から、1以上のポジティブな感情の度合いを減算した結果として算出されてもよいし、1以上のネガティブな感情の度合いの合計のみから算出されてもよい。 The first index can be said to be an index indicating the importance of sharing the state between the mother and the father. In addition to the above, the first index may be calculated as a result of subtracting the degree of one or more positive emotions from the total degree of one or more negative emotions, It may be calculated from only the total.
なお、第一条件の判定において、上記の子供の条件と母親の条件とが、所定の時間(「継続時間」ともいう。例えば60秒)以上継続して満たされる場合にのみ、第一条件を満たすと判定するようにしてもよい。子供の状態と母親の状態とについて、数秒程度の短時間だけにネガティブな状況が発生したとしても、その情報を父親などと共有する必要性は比較的低いと考えられるためである。以降では、子供の条件と母親の条件とが所定の継続時間だけ継続して満たされる場合に第一条件を満たすと判定する場合を説明する。 In the determination of the first condition, the first condition is satisfied only when the child condition and the mother condition are satisfied for a predetermined time (also referred to as “duration”, for example, 60 seconds). You may make it determine with satisfy | filling. This is because even if a negative situation occurs in only a short time of about a few seconds regarding the state of the child and the state of the mother, it is considered that the necessity of sharing the information with the father or the like is relatively low. Hereinafter, a case will be described in which it is determined that the first condition is satisfied when the child condition and the mother condition are continuously satisfied for a predetermined duration.
(2)ポジティブな状況、及び、第二条件について
ポジティブな状況とは、子供が笑ったり喃語を発したりしており、かつ、母親が幸福感などのポジティブな感情を抱いている状況を指す。このような状況では、父親又は祖父母にも同様の感情を抱かせるのが望ましいので、これらの状態を示す情報を父親又は祖父母と共有すべきであると考えられる。
(2) Positive situation and second condition A positive situation refers to a situation in which a child laughs or speaks and a mother has a positive feeling such as happiness. In such a situation, it is desirable to have the father or grandparents have similar feelings, so information indicating these conditions should be shared with the father or grandparents.
第二条件は、保持部105に格納された子供の状態についての条件、つまり、子供の条件と、保持部106に格納された母親の状態についての条件、つまり、母親の条件とにより規定される。具体的には、第二条件は、保持部105に格納された子供の状態が「笑い」または「喃語」であり、かつ、母親の感情に基づいて以下の(式2)により算出される第二指標が閾値以上であること、とすることができる。
The second condition is defined by the condition regarding the state of the child stored in the holding
第二指標=(「幸福感」の度合い)+(「集中」の度合い)+(「興味」の度合い)−(「ストレス」の度合い) (式2) Second index = (degree of “happiness”) + (degree of “concentration”) + (degree of “interest”) − (degree of “stress”) (Formula 2)
ここで、上記の「幸福感」等の各感情は、保持部106に格納された、上記時点における母親の状態から取得される。また、例えば、「幸福感」等の各感情の度合いが0〜10で評価される場合、第一条件における閾値は例えば15とする。
Here, each emotion such as the above “happiness” is acquired from the state of the mother stored in the holding
なお、第二指標は、第一指標と同様、当該状態を母親と父親とで共有する重要性を示す指標とも言える。第二指標は、第一指標と同様、1以上のポジティブな感情の度合いの合計から、1以上のネガティブな感情の度合いを減算した結果として算出されてもよいし、1以上のポジティブな感情の度合いの合計のみから算出されてもよい。 The second index can be said to be an index indicating the importance of sharing the state between the mother and the father, like the first index. The second index may be calculated as a result of subtracting the degree of one or more negative emotions from the total degree of one or more positive emotions, as in the case of the first index. It may be calculated only from the total degree.
なお、第二条件の判定においても、第一条件の場合と同様、上記の子供の条件と母親の条件とが、所定の時間(つまり継続時間)以上継続して満たされる場合にのみ、第二条件を満たすと判定するようにしてもよい。以降では、子供の条件と母親の条件とが所定の継続時間だけ継続して満たされる場合に第二条件を満たすと判定する場合を説明する。 In the determination of the second condition, as in the case of the first condition, only when the child condition and the mother's condition are continuously satisfied for a predetermined time (that is, the duration time) or more, You may make it determine with satisfy | filling conditions. Hereinafter, a case where it is determined that the second condition is satisfied when the child condition and the mother condition are continuously satisfied for a predetermined duration will be described.
図4は、本実施の形態における通知の宛先と、通知の内容を示すテーブルT2の説明図である。テーブルT2には、第一条件及び第二条件のそれぞれが満たされた場合の、通知の宛先と、通知の宛先ごとの通知の内容とが示されている。通知の宛先は、子供の状態、および、大人の状態に応じて定められている。 FIG. 4 is an explanatory diagram of the table T2 showing the notification destination and the notification content in the present embodiment. The table T2 shows the notification destination and the content of the notification for each notification destination when each of the first condition and the second condition is satisfied. The address of the notification is determined according to the condition of the child and the condition of the adult.
(1)第一条件が満たされた場合
生成部108は、共有判定部107が第一条件を満たすと判定した場合には、子供の父親と、子供の母方の祖父母とのそれぞれに提示するための通知を生成する。
(1) When the first condition is satisfied When the sharing
例えば、子供の父親に提示するための通知としては、子供と母親との状態を時系列で示すグラフ上における、第一条件を満たすと判定した時点に相当する位置に、所定の画像を付加した画像を生成する。ここで、所定の画像は、例えば、猫の手のイラスト(図柄)を示す画像である。この所定の画像が付加された時点での母親の状況が、極めて忙しい状況、いわゆる猫の手も借りたい状況(日本のことわざに由来した表現)である時点であるからである。また、所定の画像は、「ママを困らせちゃいました」というメッセージのように、その時点の状況を子供が発したかのような言葉を示す画像としてもよい。 For example, as a notification to be presented to the child's father, a predetermined image is added to the position corresponding to the point in time when it is determined that the first condition is satisfied on the graph showing the state of the child and the mother in time series. Generate an image. Here, the predetermined image is, for example, an image showing an illustration (design) of a cat's hand. This is because the mother's situation at the time when the predetermined image is added is a very busy situation, that is, a situation in which a so-called cat's hand is desired (an expression derived from a Japanese proverb). In addition, the predetermined image may be an image indicating words as if the child had uttered the situation at that time, such as a message “I was in trouble with my mom”.
また、例えば、子供の母方の祖父母に提示するための通知としては、「めっちゃ大変なんですけど」というメッセージのように、その時点の状況を母親が発したような言葉を示す画像としてもよい。 Further, for example, the notification to be presented to the child's maternal grandparents may be an image showing the words that the mother has uttered the situation at that time, such as a message “It is very hard”.
(2)第二条件が満たされた場合
生成部108は、共有判定部107が第二指標を算出した場合には、子供の父親と、母方の祖父母と、父方の祖父母とのそれぞれに提示するための通知を生成する。
(2) When the second condition is satisfied When the sharing
例えば、子供の父親と、父方の祖父母の場合には、子供と母親との状態を時系列で示すグラフ上における、第二条件を満たすと判定した時点に相当する位置に、所定の画像を付加した画像を生成する。ここで、所定の画像は、例えば、母子の笑顔のイラストを示す画像である。また、所定の画像は、「すっごくたのしんでまちゅ!」というメッセージのように、その時点の母親及び子供の状況を子供が発したかのような言葉を示す画像としてもよい。 For example, in the case of a child's father and paternal grandparents, a predetermined image is added at a position corresponding to the point in time when it is determined that the second condition is satisfied on the graph showing the state of the child and the mother in time series Generated image. Here, the predetermined image is, for example, an image showing an illustration of a smiling mother and child. In addition, the predetermined image may be an image indicating words as if the child had uttered the situation of the mother and the child at that time, such as a message “That's so fun!”
また、例えば、子供の母方の祖父母に提示するための通知としては、「すっごく楽しいことがありました!」というメッセージのように、その時点の状況を母親が発したような言葉を示す画像としてもよい。 Also, for example, as a notification to be presented to the child's maternal grandparents, an image showing the words that the mother spoke about the situation at that time, such as the message “I had so much fun!” Good.
このように、生成部108は、通知の宛先に応じて異なる表現又は内容を有する通知を生成してもよい。これにより、通知の宛先である他の育児者、例えば、父親又は祖父母に応じて異なる表現又は内容によって、その宛先に通知がなされる。通知がその宛先に応じて適切な表現又は内容を有していることで、通知の宛先である他の育児者の理解をより一層深めることを支援することができる。
As described above, the
また、生成部108は、母親の状態を示す図柄又は文章を含む通知を生成してもよい。これにより、図柄又は文章を含む通知が送信される。通知に含まれる図柄又は文章によって、通知の宛先である他の育児者は、より直観的に通知の内容を把握できる。
Further, the
そして、生成部108は、通知を生成する際には、生成される通知が母親の状態を示す図柄又は文章を含むか含まないかが、宛先に応じて異なる通知を生成してもよい。また、生成部108は、通知を生成する際には、図柄又は文章の内容が、宛先に応じて異なる通知を生成してもよい。これにより、通知に図柄又は文章を含むか否かを、宛先に応じて異ならせることができる。通知の宛先によっては、通知に図柄又は文章を含むことが適切でないこともあり得るので、このような場合に図柄又は文章を含まない通知を送信するのが適切である。この態様によれば、図柄又は文章を含む通知が適切である宛先には図柄又は文章を含む通知を送信し、図柄又は文章を含まない通知が適切である宛先には図柄又は文章を含まない通知を送信し得る。
And the production |
また、生成部108は、通知を生成する際には、生成される通知に含まれる図柄又は文章の表現又は内容が、宛先に応じて異なる通知を生成してもよい。これにより、通知に含まれる図柄又は文章の表現又は内容を、宛先に応じて異ならせることができる。そして、宛先に応じて適切な表現又は内容の図柄又は文章を含む通知を送信し得る。
Further, when generating the notification, the
また、生成部108は、通知を生成する際には、文章の表現が宛先の属性に応じて異なる通知を生成してもよい。これにより、通知に含まれる文章の表現を、宛先の属性に応じて異ならせることができる。ここで宛先の属性とは、男性、女性、母方又は父方などを意味する。そして、宛先の属性に応じて適切な表現の文章を含む通知を送信し得る。
Further, when generating the notification, the
なお、生成部108は、通知を生成する際には、子供の状態、および、母親の状態の少なくとも一方に応じて通知の重要性を示す指標を算出し、算出した指標が閾値より高い場合にのみ、通知を生成してもよい。上記の第一指標及び第二指標は、母親の状態に応じて通知の重要性を示す指標の一例である。上記の第一指標及び第二指標の代わりに、子供の状態に応じて通知の重要性を示す指標を採用することも可能である。これにより、子供の状態、又は、大人の状態から算出される指標に基づいて、通知を生成するか否かを制御できる。これにより、具体的かつ定量的に、通知を生成するか否かを制御することができる。
Note that when generating the notification, the
なお、生成部108は、通知を生成する際には、子供の状態、および、母親の状態の少なくとも一方に応じて、通知の重要性を示す指標を算出し、算出した指標が大きいほど、より大きな図柄を含む通知を生成してもよい。具体的には、上記の猫の手のイラスト、又は、母子の笑顔を示すイラストの寸法をより大きくしてもよい。これにより、子供の状態、又は、大人の状態から算出される指標に基づいて、通知に含まれる図柄の大きさを制御できる。これにより、具体的かつ定量的に、通知に含まれる図柄の大きさを制御し、通知の宛先である他の育児者の理解をより一層深めることに貢献し得る。
When generating the notification, the
以上のように構成された情報処理装置について、その処理の流れを具体例と図面を用いて説明する。 The processing flow of the information processing apparatus configured as described above will be described with reference to specific examples and drawings.
図5は、本実施の形態における識別部102、子供状態判定部103及び母親状態判定部104が実行する処理の流れを示すフロー図である。
FIG. 5 is a flowchart showing a flow of processing executed by the
ステップS1において、識別部102は、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、および、母親の音声を識別する。
In step S1, the
ステップS2において、識別部102は、ステップS1で子供の音声が識別されたか否かを判定する。子供の音声が識別されたと判定した場合(ステップS2でYes)にはステップS3に進み、そうでない場合(ステップS2でNo)にはステップS4に進む。
In step S2, the
ステップS3において、子供状態判定部103は、ステップS1で識別した子供の音声に基づいて子供の状態を判定し、子供の状態を保持部105に格納する。
In step S <b> 3, the child
ステップS4において、識別部102は、ステップS1で母親の音声が識別されたか否かを判定する。母親の音声が識別されたと判定した場合(ステップS4でYes)にはステップS5に進み、そうでない場合(ステップS4でNo)には、本フロー図に示された一連の処理を終了する。
In step S4, the
ステップS5において、母親状態判定部104は、ステップS1で識別した母親の音声に基づいて母親の状態を判定し、母親の状態を保持部106に格納する。
In step S5, the mother
以上の処理について、具体例に当てはめながら、さらに詳しく声明する。 Regarding the above processing, a statement will be made in more detail while applying a specific example.
ここでは、ある日の夕方、夕飯の支度時に母親がキッチンに立ったところ、少しお腹がすいてきた2歳の子供が母親に相手してほしさにぐずり出してしまったシーンを例に説明する。子供が泣きながら母親をキッチンから連れ出そうとして、また、早くご飯を食べたいことから「あっちーあっちーい!」、「ほちい!」などという言葉を発しながら、母親の作業を邪魔し、ぐずって泣き出してしまった。これに対し、母親が「今は無理!」、「ごはん食べられないよ?いいの!?」、「だーめ!」などという言葉を発しながら、無理やり作業をすすめようとするやり取りが2分間続いたとする。 Here, an example is given of a scene in which a mother who was standing in the kitchen at the evening of dinner on a certain day, a 2-year-old child who was a little hungry, started to crawl against her mother. Trying to take the mother out of the kitchen while the child is crying, and because he wants to eat rice as soon as possible, uttering words such as “Ah, Ah! I started crying. On the other hand, while mothers say “I can't eat now!”, “I ca n’t eat rice? Suppose it continues.
まず、識別部102が、入力部101から取得した音情報に含まれる子供の音声「あっちーあっちーい!」及び「ほちい!」を識別する。また、識別部102が、入力部101から取得した音情報に含まれる母親の音声「今は無理!」、「ごはん食べられないよ?いいの!?」及び「だーめ!」を識別する(ステップS1)。
First, the
子供状態判定部103は、ステップS1で識別した子供の音声「あっちーあっちーい!」及び「ほちい!」に基づいて、子供の状態が「ぐずり」であると判定し、その判定結果を保持部105に格納する(ステップS3)。
The child
母親状態判定部104は、ステップS1で識別した母親の音声「今は無理!」、「ごはん食べられないよ?いいの!?」及び「だーめ!」に基づいて、母親の状態が「怒り:8」、「困惑:8」、「ストレス:9」、「幸福感:1」であると判定し、その判定結果を保持部106に格納する(ステップS5)。 Based on the mother's voices identified in step S1, “I can't eat now!”, “I ca n’t eat rice?” And “Dame!” It is determined that anger is “8”, “confused: 8”, “stress: 9”, and “happiness: 1”, and the determination result is stored in the holding unit 106 (step S5).
次に、共有判定部107による処理について説明する。
Next, processing by the sharing
図6は、本実施の形態における共有判定部107が実行する処理の流れを示すフロー図である。
FIG. 6 is a flowchart showing a flow of processing executed by the sharing
ステップS11において、共有判定部107は、保持部105から子供の状態を取得し、また、保持部106から母親の状態を取得する。
In step S <b> 11, the sharing
ステップS12において、共有判定部107は、ステップS11で取得した子供の状態が「泣き」又は「ぐずり」であるか否かを判定する。子供の状態が「泣き」又は「ぐずり」である場合(ステップS12でYes)には、ステップS13に進み、そうでない場合(ステップS12でNo)には、ステップS21に進む。
In step S12, the sharing
ステップS13において、共有判定部107は、ステップS11で取得した母親の状態に基づいて上記(式1)を用いて第一指標を算出する。
In step S13, the sharing
ステップS14において、共有判定部107は、算出した第一指標が閾値以上であるか否かを判定する。第一指標が閾値以上である場合(ステップS14でYes)には、ステップS15に進み、そうでない場合(ステップS14でNo)には、本フロー図の処理を終了する。
In step S14, the sharing
ステップS15において、共有判定部107は、現時点の状態、つまり、子供の状態が「泣き」又は「ぐずり」であり、かつ、母親の感情に基づく第一指標が閾値以上である状態が直近の60秒間継続しているか否かを判定する。現時点の状態が直近の60秒間継続している場合(ステップS15でYes)には、ステップS16に進み、そうでない場合(ステップS15でNo)には、本フロー図の処理を終了する。
In step S15, the sharing
ステップS16において、生成部108は、ステップS13で共有判定部107により算出された第一指標に基づいて通知を生成する。生成される通知は、上記のとおり、通知の宛先に応じて異なる表現又は内容を含んでもよい。
In step S16, the
ステップS17において、送信部109は、ステップS16で生成された通知を送信し、表示部110により表示する。ステップS17の処理を終えたら、本フロー図に示されている一連の処理を終了する。
In step S <b> 17, the
ステップS21において、共有判定部107は、ステップS11で取得した子供の状態が「笑い」又は「喃語」であるか否かを判定する。子供の状態が「笑い」又は「喃語」である場合(ステップS21でYes)には、ステップS22に進み、そうでない場合(ステップS21でNo)には、本フロー図の処理を終了する。
In step S <b> 21, the sharing
ステップS22において、共有判定部107は、ステップS11で取得した母親の状態に基づいて上記(式2)を用いて第二指標を算出する。
In step S22, the sharing
ステップS23において、共有判定部107は、算出した第二指標が閾値以上であるか否かを判定する。第二指標が閾値以上である場合(ステップS23でYes)には、ステップS24に進み、そうでない場合(ステップS23でNo)には、本フロー図の処理を終了する。
In step S23, the sharing
ステップS24において、共有判定部107は、現時点の状態、つまり、子供の状態が「笑い」又は「喃語」であり、かつ、母親の感情に基づく第二指標が閾値以上である状態が直近の60秒間継続しているか否かを判定する。現時点の状態が直近の60秒間継続している場合(ステップS24でYes)には、ステップS25に進み、そうでない場合(ステップS24でNo)には、本フロー図の処理を終了する。
In step S24, the sharing
ステップS25において、生成部108は、ステップS22で共有判定部107により算出された第二指標に基づいて通知を生成する。生成される通知は、上記のとおり、通知の宛先に応じて異なる表現又は内容を含んでもよい。ステップS25を終えたら、ステップS17に進む。
In step S25, the
このように、ステップS16及びS25において、生成部108は、子供の状態、および、母親の状態と、母親の状態についての通知の宛先とに応じて、通知を生成する。これにより、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する。
As described above, in steps S16 and S25, the
具体例を示しながらさらに具体的に説明する。 This will be described more specifically with a specific example.
上記ステップS11において共有判定部107が、子供の状態として「ぐずり」を、母親の状態として「怒り:8」、「困惑:8」、「ストレス:9」、「幸福感:1」を取得したとする。この場合、子供の状態が「ぐずり」であり(ステップS12でYes)、第一指標が以下の(式3)から24と算出され(ステップS13)、閾値15を超えている。
In step S <b> 11, the sharing
第一指標=8+9+8―1=24 (式3) First index = 8 + 9 + 8−1 = 24 (Formula 3)
また、子供の状態が「ぐずり」であり、かつ、第一指標が閾値を超えている状態が60秒以上継続しているので(ステップS14でYes)、生成部108が第一指標に基づいて通知を生成する(ステップS16)。
In addition, since the state where the child is “guzuri” and the first index exceeds the threshold value continues for 60 seconds or more (Yes in step S14), the
次に、生成部108は、通知の宛先(具体的には、子供の父親と、子供の母方の祖父母)ごとに、通知のための画像を生成する(ステップS16)。例えば、生成部108は、父親に送付する画像として、子供と母親との状態を時系列で示すグラフ上に猫の手のイラストを付与した画像を生成する。また、生成部108は、母方の祖父母に送付する画像として、子供の母親が発したような「めっちゃ大変」というメッセージを含む画像を生成する。生成部108は、生成した画像を送信部109を経由して、表示部110へ提供する(ステップS17)。
Next, the
以上の一連の処理により情報処理システム1が提示する画像について説明する。
An image presented by the
図7は、本実施の形態における情報処理システム1が提示する画像の第一例を示す説明図である。
FIG. 7 is an explanatory diagram illustrating a first example of an image presented by the
図7の(a)に示される表示端末30の表示部110は、子供と母親との状態を時系列で示すグラフとともに、母親の状態を示す、猫の手のイラスト40が付された画像を表示している。このグラフは、より具体的には、子供と母親との状態の一例としての、子供と母親が発する音声の頻度を縦軸に示し、時間経過を横軸に示したものである。なお、音声の頻度の代わりに、音声の強度が用いられてもよい。
The
これより、父親は、従来技術では把握できない育児の状況を、定量情報とともに把握することができる。そして、母親は、育児の状況を父親又は関係者と共有することができる。それに加えて、情報処理システム1は、日々の育児及び家事における、母親にとって負荷が極めて高いタイミング、または、母親にとっての幸福なタイミングと、その事象とを父親又は関係者に通知する。これにより、父親又は関係者にとってその情報に対する興味を湧かせ、育児に対する理解がより一層深まり、さらには家庭生活の充実につなげることができる。
As a result, the father can grasp the status of childcare that cannot be grasped by the conventional technique, together with quantitative information. Then, the mother can share the status of childcare with the father or related parties. In addition, the
このように育児及び家事に関する情報を共有することが、家庭においてその後の育児サポートが円滑に行われるための大きな一歩になることは言うまでもない。また、父親における意識の変革や所謂「イクメン」の精神の醸成にもつながる。 It goes without saying that sharing information on childcare and housework in this way is a big step for smooth support for childcare at home. It also leads to a change in consciousness in the father and a so-called “Ikumen” spirit.
なお、生成部108が通知の宛先によって異なる画像を生成することで、通知の宛先ごとに適した形式で通知を行うことができ、通知の宛先の者によるより一層の理解を得ることができる。
The
なお、通知の形式は、上記のように、子供と母親との状態を時系列で示すグラフとともに母親の状態を示す画像を示すものに限定されない。例えば、図7の(b)に示されるように、表示端末30上での短文の通知、例えばスマートフォンのロック画面におけるいわゆるプッシュ通知41であってもよい。
Note that, as described above, the notification format is not limited to that showing an image showing the mother's state together with the graph showing the state of the child and the mother in time series. For example, as shown in FIG. 7B, a short text notification on the
なお、通知に含まれる画像には、母親が入力した文字列が付されていてもよい。このことについて図8を参照しながら具体的に説明する。 In addition, the character string which the mother input may be attached | subjected to the image contained in notification. This will be specifically described with reference to FIG.
図8は、本実施の形態における情報処理システム1が提示する画像の第二例を示す説明図である。
FIG. 8 is an explanatory diagram illustrating a second example of an image presented by the
図8の(a)は、上記グラフとともに、母親の状態を示す文字列を含む画像42を示している。画像42は、母親から受け付けた文字列「またもや起こされた」を含む画像である。これにより、母親が自身で入力した情報が父親又は関係者に共有され得る。
FIG. 8A shows an
さらにこの場合、母親から受け付けた文字列を、子供が発した形式の情報又は子供の状態を示す情報に変換することで、通知を生成してもよい。例えば、上記の文字列「またもや起こされた」を子供が発した形式の情報「またママをおこしちゃったの」に変換した画像43を含む通知を生成してもよい(図8の(b))。このとき、変換前の情報と変換後の情報とは、ともに母親の状態を表現したものであるので、表現方式が異なるものの、意図は概ね維持される。母親の状態を母親が表現する言葉よりも、その母親の状態を、子供が発したかのような言葉で表現する方が、父親又は関係者に、より適切に共有され得る可能性があるからである。これにより、状態を表す情報を、子供が発したかのような情報に変換して宛先である他の育児者に送信することで、他の育児者の理解をより一層深めることに貢献し得る。なお、さらに子供のイラスト44を付すことで、その言葉を子供が発した雰囲気を強調することもできる。
Further, in this case, the notification may be generated by converting the character string received from the mother into information in a form issued by the child or information indicating the state of the child. For example, a notification including the
なお、母親状態判定部104による母親の状態の判定について、ここでは母親の音声のみに基づいて状態を判定したが、調理家電、例えばIHクッキングヒーターのON/OFF音、又は、流し台における流水音の有無などを検知して母親の状態の判定に用いてもよい。また、調理家電などの機器から直接にステータス情報を入手して用いてもよい。さらには、家電機器に搭載されているセンサの情報、例えば、温度、湿度、また人行動を検知して母親状態の分析に用いてもよい。
In addition, about the determination of the state of the mother by the mother
以上のように本実施の形態の情報処理システムは、子供と大人の状態とに応じて生成される通知を宛先に送信する。また、通知は、通知の宛先に応じて生成される。大人がその子供の育児者(例えば母親)であり、通知の宛先が、その子供の他の育児者(例えば父親又は祖父母)である場合、子供と母親の状態を示す通知が、その宛先(つまり父親であるのか、又は、祖父母であるのか等)に応じて生成され送信される。宛先に応じて生成された情報が通知されるので、宛先である他の育児者の理解が得られやすい。よって、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援することができる。 As described above, the information processing system according to the present embodiment transmits a notification generated according to the state of the child and the adult to the destination. The notification is generated according to the notification destination. If the adult is the child's parent (e.g., mother) and the notification is addressed to the child's other child (e.g., father or grandparent), a notification that indicates the status of the child and mother is Whether it is a father or a grandparent). Since the information generated in accordance with the destination is notified, it is easy to obtain the understanding of other childcare persons who are the destination. Therefore, it can support further deepening the understanding of other child-care workers about the situation where the child and the child-care worker spend together.
(実施の形態2)
本実施の形態において、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法などについて説明する。本実施の形態の情報処理方法は、子供と育児者(母親)との音声に加えて、さらに環境音に基づいて、子供と育児者とが共に過ごしている状況を判定し、他の育児者の理解をより一層深めることを支援する。
(Embodiment 2)
In the present embodiment, an information processing method and the like for assisting in further deepening the understanding of other child-care workers regarding the situation where the child and the child-care worker spend together will be described. The information processing method according to the present embodiment determines the situation in which the child and the child-care worker are spending together based on the environmental sound in addition to the sound of the child and the child-care worker (mother). To deepen the understanding of
図9は、本実施の形態における情報処理システム2の機能を示すブロック図である。
FIG. 9 is a block diagram showing functions of the
図9に示されるように、情報処理システム2は、入力部101と、識別部102Aと、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107Aと、生成部108と、送信部109と、表示部110と、環境音判定部112と、保持部113とを備える。
As shown in FIG. 9, the
ここで、情報処理システム2の機能ブロックのうち、識別部102Aと、環境音判定部112と、保持部113とを除く機能ブロックは、実施の形態1におけるものと同じであるので詳細な説明を省略する。また、サーバ20Aは、実施の形態1におけるサーバ20に相当する。
Here, among the functional blocks of the
識別部102Aは、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、母親の音声、および環境音を識別する。ここで、識別部102Aが、環境音を識別する点で識別部102と異なる。環境音とは、入力部101が収音装置により収音した周囲の音のうち、子供の音声と母親の音声とを除く音である。環境音は、具体的には、家電(例えばIHクッキングヒーター、電子レンジ、洗濯機又は玩具)の操作音及び動作音、家事に伴って生じる音(例えばキッチンのシンクの流水音、ドアの開閉音、包丁で物を切るときに生ずる音)、家事ではない動作に伴って生じる音(例えば楽器が発する音、手をたたく音、踊り又は歩行などにより生ずる足音)などを含む。
The
環境音判定部112は、識別部102Aにより識別された環境音を分析することで、環境に関する状態を判定する処理部である。
The environmental
保持部113は、環境音判定部112により判定された、環境に関する状態を一時的に、又は、恒久的に保持する記憶装置である。
The holding
共有判定部107Aは、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態と、保持部113に保持されている環境に関する状態とに基づいて、これらの状態を示す情報を予め登録されている宛先(例えば父親又は祖父母)と共有すべきか否かを判定する処理部である。より具体的には、共有判定部107Aは、環境に関する状態から、母親が家事をしているか、又は、子供と遊戯をしているかを判定する。
Based on the state of the child held in the holding
図10は、本実施の形態における共有判定部107Aが判定に用いる条件を示すテーブルT3の説明図である。テーブルT3には、共有判定部107Aが判定に用いる条件の例である第一条件及び第二条件が示されている。
FIG. 10 is an explanatory diagram of a table T3 indicating conditions used for determination by the sharing
共有判定部107Aは、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態と、保持部113に保持されている環境に関する状態とに基づいて、第一条件及び第二条件が満たされるか否かを判定する。
Based on the state of the child held in the holding
(1)第一条件について
第一条件は、実施の形態1の第一条件に加えて、環境に関する状態に基づく条件がさらに考慮される。具体的には、第一条件は、保持部105に格納された子供の状態が「泣き」または「ぐずり」である場合に、母親の感情に基づいて算出される第一指標が閾値以上である、又は、母親が家事をしていること、とすることができる。
(1) About the first condition In addition to the first condition of the first embodiment, the first condition further considers a condition based on the state regarding the environment. Specifically, the first condition is that when the child state stored in the holding
子供が泣いたりぐずったりしている時に、母親が家事をしている場合、母親の感情に関わらず、父親又は祖父母による育児若しくは家事の助け、又は、心理面での支えが必要であるので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。 If the mother is doing housework when the child is crying or swaying, regardless of the mother's feelings, childcare or housework assistance by the father or grandparents, or psychological support, is necessary. This is because it can be said that information indicating these states should be shared with the father or grandparents.
(2)第二条件について
第二条件は、実施の形態1の第二条件に加えて、環境に関する状態に基づく条件がさらに考慮される。具体的には、第二条件は、保持部105に格納された子供の状態が「笑い」または「喃語」である場合に、母親の感情に基づいて算出される第二指標が閾値以上である、又は、母親と子供とが共に遊戯をしていること、とすることができる。
(2) Second condition As for the second condition, in addition to the second condition of the first embodiment, a condition based on the state regarding the environment is further considered. Specifically, the second condition is that the second index calculated based on the emotions of the mother is equal to or greater than a threshold when the child state stored in the holding
子供が笑ったり喃語を発したりしている時に、母親と子供とが共に遊戯中である場合、母親の感情に関わらず、父親又は祖父母にも幸福感などのポジティブな感情を抱かせるのが望ましいので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。 When a child laughs or speaks a language, if the mother and the child are playing together, it is desirable that the father or grandparents have positive feelings such as happiness regardless of the mother's feelings. Therefore, it can be said that information indicating these states should be shared with the father or grandparents.
以上のように構成された情報処理システム2について、その処理の流れを図面を用いて説明する。
The
図11は、本実施の形態における識別部102A、子供状態判定部103、母親状態判定部104及び環境音判定部112が実行する処理の流れを示すフロー図である。
FIG. 11 is a flowchart showing a flow of processing executed by the
なお、子供状態判定部103及び母親状態判定部104が実行する処理(ステップS2からS5)は、実施の形態1におけるものと同じであるので詳細な説明を省略する。
In addition, since the process (step S2 to S5) which the child
ステップS1Aにおいて、識別部102Aは、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、母親の音声、および、環境音を識別する。
In step S1A, the
ステップS2からS5において、子供状態判定部103が判定した子供の状態が保持部105に格納され、母親状態判定部104が判定した母親の状態が保持部106に格納される(詳細は実施の形態1を参照)。
In steps S2 to S5, the child state determined by the child
ステップS6において、識別部102Aは、ステップS1で環境音が識別されたか否かを判定する。環境音が識別されたと判定した場合(ステップS6でYes)にはステップS7に進み、そうでない場合(ステップS6でNo)には、本フロー図に示された一連の処理を終了する。
In step S6, the
ステップS7において、環境音判定部112は、ステップS1で識別した環境音の音声に基づいて環境の状態を判定し、判定した環境の状態を保持部113に格納する。具体例では、ステップS1で識別した環境音である、IHクッキングヒーターの操作音に基づいて、家事がなされていると判定し、その判定結果を保持部113に格納する。
In step S7, the environmental
本フロー図に示された一連の処理が終了したら、共有判定部107Aが、子供の状態と、母親の状態と、環境に関する状態とに基づいて、これらの状態を示す情報を父親又は祖父母と共有すべき度合いを示す指標を算出する。この処理は、図6に示される処理と同様であるが、ステップS14及びステップS23の処理のみが異なる。具体的には、ステップS14の判定の条件を、「第一指標が閾値以上である、又は、母親が家事をしている?」とする。また、ステップS23の判定の条件を、「第二指標が閾値以上である、又は、母親が遊戯をしている?」とする。
When the series of processes shown in the flowchart is completed, the sharing
このように、情報処理システム2は、子供の音声および大人の音声を識別する際には、子供の音声、大人の音声、および、環境音を識別し、大人の状態を判定する際には、識別された大人の音声、および、環境音に基づいて、大人の状態を判定してもよい。
As described above, the
このようにすることで、情報処理システム2は、子供と母親との音声に加えて、さらに環境音に基づいて、子供と育児者とが共に過ごしている状況を判定し、他の育児者の理解をより一層深めることを支援する。
By doing in this way, the
なお、共有判定部107Aが判定に用いる条件の別の例についてさらに説明する。
Note that another example of conditions used for determination by the sharing
図12は、本実施の形態における共有判定部107Aが判定に用いる別の条件を示すテーブルT4の説明図である。図12に示されるテーブルT4は、図10に示されるテーブルT3の代わりに用いられてもよいし、テーブルT3とともに用いられてもよい。
FIG. 12 is an explanatory diagram of a table T4 showing another condition used for determination by the sharing
(1)第一条件について
第一条件は、実施の形態1の第一条件に加えて、人(つまり子供又は母親)の動作に基づく条件がさらに考慮される。具体的には、第一条件は、保持部105に格納された子供の状態が「泣き」または「ぐずり」である場合に、母親の感情に基づいて算出される第一指標が閾値以上である、又は、人の動作がイレギュラーな動作であること、とすることができる。ここで、人のイレギュラーな動作は、走り回っている、せわしなく動いている又は大声を伴う動きなどのネガティブな事象に起因する動作であることが想定される。
(1) About the first condition In addition to the first condition of the first embodiment, the first condition further considers a condition based on the action of a person (that is, a child or a mother). Specifically, the first condition is that when the child state stored in the holding
子供が泣いたりぐずったりしているときに、母親がイレギュラーな動作をしている場合、母親の感情に関わらず、父親又は祖父母による育児若しくは家事の助け、又は、心理面での支えが必要であるので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。 When a child is crying or wandering, if the mother behaves irregularly, the father or grandparents need help with childcare or housework, or psychological support, regardless of the mother's feelings Therefore, it can be said that information indicating these states should be shared with the father or grandparents.
(2)第二条件について
第二条件は、実施の形態1の第二条件に加えて、人(つまり子供又は母親)の動作に基づく条件がさらに考慮される。具体的には、第二条件は、保持部105に格納された子供の状態が「笑い」または「喃語」である場合に、母親の感情に基づいて算出される第二指標が閾値以上である、又は、人の動作がイレギュラーな動作であること、とすることができる。ここで、人のイレギュラーな動作は、上記(1)におけるイレギュラーな動作と異なり、両手を挙げている(高い高い)、遅い速度で継続的に移動している(追いかけっこ)、上下運動をしている(いないいないばあ)などのポジティブな事象に起因する動作であることが想定される。
(2) Second condition In addition to the second condition of the first embodiment, the second condition further considers a condition based on the action of a person (that is, a child or a mother). Specifically, the second condition is that the second index calculated based on the emotions of the mother is equal to or greater than a threshold when the child state stored in the holding
子供が笑ったり喃語を発したりしているときに、母親と子供とが共に遊戯中である場合、母親の感情に関わらず、父親又は祖父母にも幸福感などのポジティブな感情を抱かせるのが望ましいので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。 When a child laughs or speaks a language, if the mother and the child are playing together, regardless of the mother's feelings, the father or grandparents can have positive feelings such as happiness. This is because it can be said that information indicating these states should be shared with the father or grandparents.
このように、情報処理システム2は、さらに、大人の身体を検知するセンサによる検知結果を取得し、大人の状態を判定する際には、識別された大人の音声、および、上記検知結果に基づいて、大人の状態を判定してもよい。
As described above, the
以上のように、本実施の形態に係る情報処理方法によれば、大人の状態を判定するためにさらに環境音が用いられる。そして、さらに環境音に基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。 As described above, according to the information processing method according to the present embodiment, the environmental sound is further used to determine the adult state. Further, a notification is generated and transmitted according to the adult state determined based on the environmental sound. Thereby, an adult's state can be determined in detail, and notification is generated and transmitted based on this detailed determination.
また、大人の状態を判定するためにさらにセンサが用いられる。そして、さらにセンサに基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。 Sensors are also used to determine adult status. Further, a notification is generated and transmitted according to the adult state determined based on the sensor. Thereby, an adult's state can be determined in detail, and notification is generated and transmitted based on this detailed determination.
(実施の形態3)
本実施の形態において、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法などについて説明する。本実施の形態の情報処理方法では、通知の宛先に係る人がより確認しやすいタイミングに通知を行うことで、通知を認識する確実性を向上させる、言い換えれば、伝え漏れを防ぐことができる。
(Embodiment 3)
In the present embodiment, an information processing method and the like for assisting in further deepening the understanding of other child-care workers regarding the situation where the child and the child-care worker spend together will be described. In the information processing method according to the present embodiment, notification is performed at a timing at which it is easier for a person related to the notification destination to confirm, so that the certainty of recognizing the notification is improved, in other words, communication failure can be prevented.
図13は、本実施の形態における情報処理システム3の機能を示すブロック図である。
FIG. 13 is a block diagram illustrating functions of the
図13に示されるように、情報処理システム3は、入力部101と、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108と、送信部109Aと、表示部110と、位置取得部115とを備える。
As illustrated in FIG. 13, the
位置取得部115は、通知の宛先の位置を示す位置情報を取得する処理部である。位置取得部115は、具体的には、通知の宛先の者が携帯している携帯端末32の位置情報を取得する位置センサである。位置取得部115は、例えば、鉄道会社の改札機のシステムから、携帯端末32の保有者、つまり、子供の父親が、所定の駅の改札機を通過したことを示す情報を受信すると、子供の父親が当該改札機の地点の近傍の位置を示す位置情報を生成する。携帯端末32は、例えば、改札機と近接無線通信をするスマートフォン又は携帯電話、若しくは、非接触型ICカード等である。なお、位置取得部115は、携帯端末32の位置情報を取得できるものであれば、他の手段であってもよい。位置取得部115は、例えば、携帯端末32に搭載されたGPS(Global Positioning System)受信器から、携帯端末32の位置を取得してもよい。なお、携帯端末32は、表示端末30と同一の端末であってもよい。また、改札機との通信の代わりに、バスの運賃支払い機などの乗り物を利用する際に用いられる通信機(乗降記録機ともいう)との通信が利用されてもよい。
The
送信部109Aは、生成部108が生成した情報の送信タイミング、及び、情報の通知の態様を、位置取得部115が取得した位置情報に応じて制御する。具体的には、送信部109Aは、位置取得部115が取得した位置情報を参照して、宛先が所定の位置に位置していることに応じて通知を宛先へ送信する。例えば、乗り物の乗降記録機の位置情報が既知である場合に、送信部109Aは、宛先に係る人が携帯する端末による近接無線通信を用いて乗降記録機と通信したことに応じて通知を宛先へ送信する。より具体的には、宛先に係る人が携帯する端末による近接無線通信を用いて駅の改札を通過したタイミングに、通知を宛先へ送信する。
The
図14は、本実施の形態における送信部109Aによる情報の送信タイミング、及び、情報の通知の態様を示す送信タイミングを示すテーブルT5の説明図である。
FIG. 14 is an explanatory diagram of a table T5 indicating the transmission timing of information by the
図14に示されるように、テーブルT5は、時間帯51と、位置52と、通知の態様53との情報を、各エントリについて示す。各エントリは、時間帯と位置とが与えられる場合に、父親が保有する表示端末30にどのような態様で通知をするかを示している。
As shown in FIG. 14, the table T <b> 5 shows information about the
時間帯51は、表示端末30により通知を行う時間帯を示す情報である。時間帯51は、例えば、午前、午後、7時台、15時台のように時間帯を指定する。なお、時間帯の時間長はどのようなものであってもよく、数時間、数分であってもよい。
The
位置52は、表示端末30により通知を行うときの表示端末30の位置を示す情報である。位置52は、位置を一意に特定し得る情報であればどのような形式でもよく、一組の緯度及び経度、住所、目印となる建物の名称などである。
The
通知の態様53は、表示端末30により通知を行う態様を示す情報である。例えば、通知の態様53は、「画像の更新」又は「プッシュ通知」がある。
The
以上のように、本実施の形態に係る情報処理方法によれば、通知の宛先である他の育児者の位置に応じて通知を送信し得る。他の育児者が通知を確認しやすい状態において通知を送信することにより、他の育児者が通知を認識する確実性が向上し得る。 As described above, according to the information processing method according to the present embodiment, a notification can be transmitted according to the position of another childcare person who is the destination of the notification. By transmitting the notification in a state in which the other childcare person can easily confirm the notification, the certainty that the other childcare person can recognize the notification can be improved.
また、他の育児者が通知を確認しやすいタイミングとして、他の育児者が乗り物に乗降したことに応じて通知を送信する。これにより、他の育児者が通知を認識する確実性がより一層向上し得る。 In addition, as a timing when it is easy for other childcare personnel to confirm the notification, a notification is transmitted in response to another childcare worker getting on and off the vehicle. Thereby, the certainty that other child-care workers recognize the notification can be further improved.
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の情報処理システムなどを実現するソフトウェアは、次のようなプログラムである。 In each of the above embodiments, each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. Here, the software that realizes the information processing system of each of the above embodiments is a program as follows.
すなわち、このプログラムは、コンピュータに、プロセッサを用いて、収音装置による収音により得られる音情報を取得し、前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、識別された前記子供の音声に基づいて、前記子供の状態を判定し、識別された前記大人の音声に基づいて、前記大人の状態を判定し、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、生成された前記通知を前記宛先へ送信する、情報処理方法を実行させる。 That is, this program uses a processor to acquire sound information obtained by sound collection by a sound collection device, identifies a child's voice and an adult's voice included in the sound indicated by the sound information, Determining the state of the child based on the voice of the identified child; determining the state of the adult based on the voice of the adult identified; and determining the state of the child An information processing method is executed in which the notification is generated according to the adult state and a notification destination regarding the adult state, and the generated notification is transmitted to the destination.
以上、一つまたは複数の態様に係る情報処理システムなどについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。 As described above, the information processing system according to one or more aspects has been described based on the embodiment, but the present invention is not limited to this embodiment. Unless it deviates from the gist of the present invention, various modifications conceived by those skilled in the art have been made in this embodiment, and forms constructed by combining components in different embodiments are also within the scope of one or more aspects. May be included.
本発明は、子供(乳幼児)と育児者(例えば母親)における育児などの状況を、他の育児者(例えば父親)又は関係者(例えば祖父母)との間で共有する情報共有方法などとして有用である。 INDUSTRIAL APPLICABILITY The present invention is useful as an information sharing method for sharing a situation such as childcare in a child (infant) and a childcare person (for example, a mother) with another childcare person (for example, a father) or a related person (for example, a grandparent). is there.
1、2、3 情報処理システム
10 入力端末
20、20A サーバ
30 表示端末
32 携帯端末
40、44 イラスト
101 入力部
102、102A 識別部
103 子供状態判定部
104 母親状態判定部
105、106、113 保持部
107、107A 共有判定部
108 生成部
109、109A 送信部
110 表示部
112 環境音判定部
115 位置取得部
T1、T2、T3、T4、T5 テーブル
1, 2, 3
Claims (14)
収音装置による収音により得られる音情報を取得し、
前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、
識別された前記子供の音声に基づいて、前記子供の状態を判定し、
識別された前記大人の音声に基づいて、前記大人の状態を判定し、
判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、
生成された前記通知を前記宛先へ送信する、
情報処理方法。 Using a processor
Acquire sound information obtained by sound collection
Identifying a child's voice and an adult's voice included in the sound indicated by the sound information;
Determining the child's condition based on the identified child's voice;
Determining the status of the adult based on the identified voice of the adult;
Generating the notification according to the determined state of the child, the determined adult state, and a notification destination for the adult state;
Sending the generated notification to the destination;
Information processing method.
請求項1に記載の情報処理方法。 The information processing method according to claim 1, wherein generating the notification includes generating the notification having a different expression or content depending on the destination.
請求項2に記載の情報処理方法。 The information according to claim 2, wherein generating the notification includes generating the notification including a pattern or a sentence that is different in expression or content depending on the destination and indicates the state of the adult. Processing method.
請求項2又は3に記載の情報処理方法。 The generation of the notification includes generating the notification in which whether the generated notification includes or does not include a graphic or a sentence indicating the adult state depends on the destination. Information processing method described in 1.
請求項3に記載の情報処理方法。 The information processing method according to claim 3, wherein expression or content of the symbol or the sentence varies depending on an attribute of the destination.
請求項1〜5のいずれか1項に記載の情報処理方法。 Generating the notification calculates an index according to at least one of the determined state of the child and the determined state of the adult, and the notification is performed only when the calculated index is higher than a threshold value. The information processing method of any one of Claims 1-5 including producing | generating.
請求項1〜6のいずれか1項に記載の情報処理方法。 Generating the notification calculates an index according to at least one of the determined state of the child and the determined state of the adult, and the larger the calculated index, the larger the pattern The information processing method according to claim 1, further comprising generating a notification.
前記大人の状態を示す情報を入力装置を介して受け付け、
受け付けた前記情報を、前記子供が発した形式の情報又は前記子供の状態を示す情報に変換することで、前記通知を生成することを含む
請求項1〜7のいずれか1項に記載の情報処理方法。 Generating the notification includes
Accepting information indicating the adult status via an input device,
The information according to any one of claims 1 to 7, further comprising: generating the notification by converting the received information into information in a form issued by the child or information indicating the state of the child. Processing method.
請求項1〜7のいずれか1項に記載の情報処理方法。 The information processing method according to claim 1, wherein the destination is determined according to the determined state of the child and the determined state of the adult.
前記大人の状態を判定することは、
識別された前記大人の音声、および、前記環境音に基づいて、前記大人の状態を判定することを含む
請求項1〜9のいずれか1項に記載の情報処理方法。 Furthermore, the environmental sound included in the sound indicated by the sound information is identified,
Determining the adult status is
The information processing method according to claim 1, further comprising: determining a state of the adult based on the identified voice of the adult and the environmental sound.
前記大人の状態を判定することは、
識別された前記大人の音声、および、前記検知結果に基づいて、前記大人の状態を判定することを含む
請求項1〜10のいずれか1項に記載の情報処理方法。 In the information processing method, further, a detection result by a sensor for detecting a person is acquired,
Determining the adult status is
The information processing method according to claim 1, further comprising: determining a state of the adult based on the identified voice of the adult and the detection result.
前記通知を前記宛先へ送信することは、
前記位置情報を参照して、前記宛先が所定の位置にいることに応じて前記通知を前記宛先へ送信することを含む
請求項1〜11のいずれか1項に記載の情報処理方法。 The information processing method further acquires position information indicating the position of the destination,
Sending the notification to the destination is
The information processing method according to any one of claims 1 to 11, further comprising: transmitting the notification to the destination in response to the destination being in a predetermined position with reference to the position information.
前記宛先に係る人が携帯する端末による近接無線通信を用いて前記乗降記録機と通信したことに応じて、前記通知を前記宛先へ送信することを含む
請求項12に記載の情報処理方法。 The predetermined position is a position where a boarding / alighting recorder related to the vehicle is installed,
The information processing method according to claim 12, further comprising: transmitting the notification to the destination in response to communication with the boarding / exiting recorder using proximity wireless communication by a terminal carried by a person related to the destination.
識別された前記子供の音声に基づいて、前記子供の状態を判定する子供状態判定部と、
識別された前記大人の音声に基づいて、前記大人の状態を判定する大人状態判定部と、
判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成する生成部と、
生成された前記通知を前記宛先へ送信する送信部とを備える
情報処理装置。 An identification unit for identifying a child's voice and an adult's voice included in the sound indicated by the sound information obtained by the sound collection by the sound collection device;
A child state determination unit for determining the state of the child based on the voice of the identified child;
An adult state determination unit for determining the adult state based on the identified adult voice;
A generating unit that generates the notification according to the determined state of the child, the determined adult state, and a destination of the notification about the adult state;
An information processing apparatus comprising: a transmission unit that transmits the generated notification to the destination.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017124806A JP6861398B2 (en) | 2017-06-27 | 2017-06-27 | Information processing method and information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017124806A JP6861398B2 (en) | 2017-06-27 | 2017-06-27 | Information processing method and information processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019009666A true JP2019009666A (en) | 2019-01-17 |
JP6861398B2 JP6861398B2 (en) | 2021-04-21 |
Family
ID=65029807
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017124806A Active JP6861398B2 (en) | 2017-06-27 | 2017-06-27 | Information processing method and information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6861398B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114954339A (en) * | 2022-05-24 | 2022-08-30 | 中国第一汽车股份有限公司 | Detection device and method for preventing children from being trapped in car based on voice recognition technology |
WO2023286249A1 (en) * | 2021-07-15 | 2023-01-19 | 日本電信電話株式会社 | Communication assistance system, communication assistance method, and program |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001318856A (en) * | 2000-05-08 | 2001-11-16 | Com'app:Kk | System and method for sharing information |
JP2007004792A (en) * | 2006-06-19 | 2007-01-11 | Matsushita Electric Ind Co Ltd | Optical output device and information processing terminal |
JP2008250362A (en) * | 2007-03-29 | 2008-10-16 | Nec Corp | Health condition management support system |
JP2012038281A (en) * | 2010-08-09 | 2012-02-23 | First:Kk | Twitter system for mothers raising children |
KR101421217B1 (en) * | 2013-11-18 | 2014-07-23 | (주) 나무와 숲 | Children's Emotion Managing Method using Correlation of Child Psychology and Parents Stress |
JP2015184563A (en) * | 2014-03-25 | 2015-10-22 | シャープ株式会社 | Interactive household electrical system, server device, interactive household electrical appliance, method for household electrical system to interact, and program for realizing the same by computer |
CN106803219A (en) * | 2017-01-18 | 2017-06-06 | 吉林大学 | A kind of work and rest identification record method towards newborn care based on Intelligent foot ring |
-
2017
- 2017-06-27 JP JP2017124806A patent/JP6861398B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001318856A (en) * | 2000-05-08 | 2001-11-16 | Com'app:Kk | System and method for sharing information |
JP2007004792A (en) * | 2006-06-19 | 2007-01-11 | Matsushita Electric Ind Co Ltd | Optical output device and information processing terminal |
JP2008250362A (en) * | 2007-03-29 | 2008-10-16 | Nec Corp | Health condition management support system |
JP2012038281A (en) * | 2010-08-09 | 2012-02-23 | First:Kk | Twitter system for mothers raising children |
KR101421217B1 (en) * | 2013-11-18 | 2014-07-23 | (주) 나무와 숲 | Children's Emotion Managing Method using Correlation of Child Psychology and Parents Stress |
JP2015184563A (en) * | 2014-03-25 | 2015-10-22 | シャープ株式会社 | Interactive household electrical system, server device, interactive household electrical appliance, method for household electrical system to interact, and program for realizing the same by computer |
CN106803219A (en) * | 2017-01-18 | 2017-06-06 | 吉林大学 | A kind of work and rest identification record method towards newborn care based on Intelligent foot ring |
Non-Patent Citations (1)
Title |
---|
"セレボ、乳児の声の感情を認識するスマートマイク「Listnr(リスナー)」発売」", IOT NEWS, JPN7021000509, 22 January 2016 (2016-01-22), ISSN: 0004445721 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023286249A1 (en) * | 2021-07-15 | 2023-01-19 | 日本電信電話株式会社 | Communication assistance system, communication assistance method, and program |
CN114954339A (en) * | 2022-05-24 | 2022-08-30 | 中国第一汽车股份有限公司 | Detection device and method for preventing children from being trapped in car based on voice recognition technology |
Also Published As
Publication number | Publication date |
---|---|
JP6861398B2 (en) | 2021-04-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11017765B2 (en) | Intelligent assistant with intent-based information resolution | |
US10964336B2 (en) | Systems for and methods of intelligent acoustic monitoring | |
US11100384B2 (en) | Intelligent device user interactions | |
US9814993B2 (en) | Interactive toy plaything having wireless communication of interaction-related information with remote entities | |
US20160321536A1 (en) | Interface apparatus and method for providing interaction of a user with network entities | |
WO2016136062A1 (en) | Information processing device, information processing method, and program | |
BR112015018905B1 (en) | Voice activation feature operation method, computer readable storage media and electronic device | |
CN110719553B (en) | Smart speaker system with cognitive sound analysis and response | |
US11823549B1 (en) | Contextual response to motion-based event | |
JP2019009666A (en) | Information processing method and information processing device | |
Myakala et al. | A low cost intelligent smart system for real time infant monitoring and cry detection | |
KR101248323B1 (en) | Method and Apparatus for providing Ubiquitous Smart Parenting and Customized Education Service, and Recording medium thereof | |
EP3776173A1 (en) | Intelligent device user interactions | |
Myakala et al. | An intelligent system for infant cry detection and information in real time | |
TWI795663B (en) | personal assistant control system | |
JP6941593B2 (en) | Control terminal, control method and control system | |
CN113539282A (en) | Sound processing device, system and method | |
WO2018079018A1 (en) | Information processing device and information processing method | |
US11749270B2 (en) | Output apparatus, output method and non-transitory computer-readable recording medium | |
US10601757B2 (en) | Multi-output mode communication support device, communication support method, and computer program product | |
JP2017107415A (en) | Communication system | |
WO2020202444A1 (en) | Physical condition detection system | |
CN112420078A (en) | Monitoring method, device, storage medium and electronic equipment | |
CN114911346A (en) | Interaction method and device for terminal equipment |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210216 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210316 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6861398 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |