JP2019009666A - Information processing method and information processing device - Google Patents

Information processing method and information processing device Download PDF

Info

Publication number
JP2019009666A
JP2019009666A JP2017124806A JP2017124806A JP2019009666A JP 2019009666 A JP2019009666 A JP 2019009666A JP 2017124806 A JP2017124806 A JP 2017124806A JP 2017124806 A JP2017124806 A JP 2017124806A JP 2019009666 A JP2019009666 A JP 2019009666A
Authority
JP
Japan
Prior art keywords
child
notification
state
adult
destination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017124806A
Other languages
Japanese (ja)
Other versions
JP6861398B2 (en
Inventor
江都子 水野
Etsuko Mizuno
江都子 水野
恵大 飯田
Keita Iida
恵大 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017124806A priority Critical patent/JP6861398B2/en
Publication of JP2019009666A publication Critical patent/JP2019009666A/en
Application granted granted Critical
Publication of JP6861398B2 publication Critical patent/JP6861398B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To support promotion of a better understanding of another child carer concerning a situation where a child and a child carer share a time together.SOLUTION: In an information processing method, a processor is used to acquire voice information to be obtained by voice collection by a voice collection device, identify the voice of a child and the voice of an adult included in voice indicated by voice information, determine a state of the child on the basis of the identified voice of the child, determine a state of the adult on the basis of the identified voice of the adult, and generate a report in accordance with a determined state of the child, a determined state of the adult, and a destination of the report concerning a state of the adult (steps S16 and S25). Then, the generated report is transmitted to a destination (step S17).SELECTED DRAWING: Figure 6

Description

本開示は、情報処理方法、及び、情報処理装置に関する。   The present disclosure relates to an information processing method and an information processing apparatus.

子育てに関する情報共有を行うシステムにおいて、従来は子供の音声から子供の状態を診断し、子供から離れた場所にいる保護者(育児者、例えば、子供の母親)に子供の状態を通知する方法が提案されている。   In a system for sharing information on child-raising, there is a conventional method for diagnosing a child's condition from a child's voice and notifying a parent (childcare person, for example, a child's mother) who is away from the child of the child's condition. Proposed.

例えば、特許文献1では、子供の泣き声を検知し、子供の泣き声が所定の時間以上継続して発せられたことを条件として保護者の端末に状況を通知する技術が開示されている。   For example, Patent Document 1 discloses a technique for detecting a child's cry and notifying a guardian's terminal of the situation on condition that the child's cry is continuously emitted for a predetermined time or longer.

特許第4805496号公報Japanese Patent No. 480596

しかし、特許文献1が開示する技術では、子供の状況のみを診断し、その診断結果を離れた場所にいる育児者に通知する。この技術では、子供と育児者とが共に過ごしている状況に関する情報を、他の育児者(例えば子供の父親)と共有することができない。   However, in the technique disclosed in Patent Document 1, only the situation of a child is diagnosed, and the diagnosis result is notified to a child-care worker in a remote place. With this technique, information regarding the situation in which the child and the child-care worker spend together cannot be shared with other child-care workers (for example, the father of the child).

そこで、本発明は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法を提供する。   Therefore, the present invention provides an information processing method that supports further deepening the understanding of other child-caregivers about the situation where the child and the child-caregiver spend together.

本発明の一態様に係る情報処理方法は、プロセッサを用いて、収音装置による収音により得られる音情報を取得し、前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、識別された前記子供の音声に基づいて、前記子供の状態を判定し、識別された前記大人の音声に基づいて、前記大人の状態を判定し、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、生成された前記通知を前記宛先へ送信する。   An information processing method according to one embodiment of the present invention uses a processor to acquire sound information obtained by sound collection by a sound collection device, and outputs a child's voice and an adult's voice included in the sound indicated by the sound information. Identifying, determining the state of the child based on the identified voice of the child, determining the state of the adult based on the identified voice of the adult, and determining the state of the child; and The notification is generated according to the determined adult state and the notification destination regarding the adult state, and the generated notification is transmitted to the destination.

なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。   Note that these comprehensive or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM, and the system, method, integrated circuit, and computer program. And any combination of recording media.

本発明の情報処理方法は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援できる。   The information processing method of the present invention can assist in further deepening the understanding of other child-care workers about the situation where the child and the child-care worker are spending time together.

図1は、実施の形態1における情報処理システムが提供するサービスの概要を示す説明図である。FIG. 1 is an explanatory diagram showing an overview of services provided by the information processing system according to the first embodiment. 図2は、実施の形態1における情報処理システムの機能を示すブロック図である。FIG. 2 is a block diagram illustrating functions of the information processing system according to the first embodiment. 図3は、実施の形態1における共有判定部が判定に用いる条件を示すテーブルの説明図である。FIG. 3 is an explanatory diagram of a table showing conditions used for determination by the sharing determination unit according to the first embodiment. 図4は、実施の形態1における通知の宛先と、通知の内容を示すテーブルの説明図である。FIG. 4 is an explanatory diagram of a table indicating the notification destination and the content of the notification according to the first embodiment. 図5は、実施の形態1における識別部、子供状態判定部及び母親状態判定部が実行する処理の流れを示すフロー図である。FIG. 5 is a flowchart showing a flow of processes executed by the identification unit, the child state determination unit, and the mother state determination unit in the first embodiment. 図6は、実施の形態1における共有判定部が実行する処理の流れを示すフロー図である。FIG. 6 is a flowchart showing a flow of processing executed by the sharing determination unit in the first embodiment. 図7は、実施の形態1における情報処理システムが提示する画像の第一例を示す説明図である。FIG. 7 is an explanatory diagram illustrating a first example of an image presented by the information processing system according to the first embodiment. 図8は、実施の形態1における情報処理システムが提示する画像の第二例を示す説明図である。FIG. 8 is an explanatory diagram illustrating a second example of an image presented by the information processing system according to the first embodiment. 図9は、実施の形態2における情報処理システムの機能を示すブロック図である。FIG. 9 is a block diagram illustrating functions of the information processing system according to the second embodiment. 図10は、実施の形態2における共有判定部が判定に用いる条件を示すテーブルの説明図である。FIG. 10 is an explanatory diagram of a table showing conditions used for determination by the sharing determination unit in the second embodiment. 図11は、実施の形態2における識別部、子供状態判定部、母親状態判定部及び環境音判定部が実行する処理の流れを示すフロー図である。FIG. 11 is a flowchart showing a flow of processes executed by the identification unit, the child state determination unit, the mother state determination unit, and the environmental sound determination unit in the second embodiment. 図12は、実施の形態2における共有判定部が判定に用いる別の条件を示すテーブルの説明図である。FIG. 12 is an explanatory diagram of a table showing another condition used for determination by the sharing determination unit in the second embodiment. 図13は、実施の形態3における情報処理システムの機能を示すブロック図である。FIG. 13 is a block diagram illustrating functions of the information processing system according to the third embodiment. 図14は、実施の形態3における送信部による情報の送信タイミング、及び、情報の通知の態様を示す送信タイミングを示すテーブルの説明図である。FIG. 14 is an explanatory diagram of a table showing the transmission timing of information by the transmission unit and the transmission timing indicating the information notification mode in the third embodiment.

(本発明の基礎となった知見)
特許文献1が開示する技術では、子供の状況のみを診断し、その診断結果を離れた場所にいる育児者(例えば子供の母親)に通知する。この技術は、子供と共に過ごしている育児者に関する情報を、他の育児者(例えば子供の父親)又は関係者(例えば子供の祖父母)に通知するものではない。よって、これだけでは、育児者に関する情報についての他の育児者などの理解が得られない。そのため、他の育児者又は関係者に育児の状況を把握させようとする際には、育児者自らが通知を行うことを要する。育児者自らが独自に、他の育児者又は関係者に通知を行うと、他の育児者又は関係者に、意図と異なる不適切な印象を与えてしまうという問題を生じ得る。不適切な印象を与えてしまった場合には、再度の通知を行う必要が生じ、その通知のための時間又は電力などを余計に消費するという問題も生じ得る。
(Knowledge that became the basis of the present invention)
In the technique disclosed in Patent Document 1, only the situation of a child is diagnosed, and the diagnosis result is notified to a child-care worker (for example, a mother of the child) at a remote location. This technique does not inform other parenters (e.g., the child's father) or parties (e.g., the child's grandparents) about information about the parent who is spending time with the child. Therefore, this alone does not provide an understanding of other child-care workers about information related to child-care workers. Therefore, when trying to make other childcare workers or related persons grasp the status of childcare, it is necessary for the childcare worker himself to give notice. If the child-care worker himself / herself notifies other child-caregivers or related parties, there may be a problem that an inappropriate impression different from the intention is given to the other child-caregivers or related parties. When an inappropriate impression is given, it is necessary to perform another notification, and there may be a problem that extra time or power is consumed for the notification.

そこで、本発明は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法を提供する。   Therefore, the present invention provides an information processing method that supports further deepening the understanding of other child-caregivers about the situation where the child and the child-caregiver spend together.

このような問題を解決するために、本発明の一態様に係る情報処理方法は、プロセッサを用いて、収音装置による収音により得られる音情報を取得し、前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、識別された前記子供の音声に基づいて、前記子供の状態を判定し、識別された前記大人の音声に基づいて、前記大人の状態を判定し、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、生成された前記通知を前記宛先へ送信する。   In order to solve such a problem, an information processing method according to one embodiment of the present invention acquires sound information obtained by sound collection by a sound collection device using a processor, and includes the sound information indicated by the sound information. Identifying the voice of the child and the voice of the adult, determining the state of the child based on the identified voice of the child, and determining the state of the adult based on the identified voice of the adult The notification is generated according to the determined state of the child, the determined state of the adult, and a notification destination regarding the adult state, and the generated notification is transmitted to the destination To do.

上記態様によれば、子供と大人の状態とに応じて生成される通知を宛先に送信する。また、通知は、通知の宛先に応じて生成される。大人がその子供の育児者(例えば母親)であり、通知の宛先が、その子供の他の育児者(例えば父親又は祖父母)である場合、子供と母親の状態を示す通知が、その宛先(つまり父親であるのか、又は、祖父母であるのか等)に応じて生成され送信される。宛先に応じて生成された情報が通知されるので、宛先である他の育児者の理解が得られやすい。よって、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援することができる。   According to the said aspect, the notification produced | generated according to the state of a child and an adult is transmitted to a destination. The notification is generated according to the notification destination. If the adult is the child's parent (e.g., mother) and the notification is addressed to the child's other child (e.g., father or grandparent), a notification that indicates the status of the child and mother is Whether it is a father or a grandparent). Since the information generated in accordance with the destination is notified, it is easy to obtain the understanding of other childcare persons who are the destination. Therefore, it can support further deepening the understanding of other child-care workers about the situation where the child and the child-care worker spend together.

例えば、前記通知を生成することは、前記宛先に応じて異なる表現又は内容を有する前記通知を生成することを含んでもよい。   For example, generating the notification may include generating the notification having a different expression or content depending on the destination.

上記態様によれば、通知の宛先である他の育児者、例えば、父親又は祖父母に応じて異なる表現又は内容によって、その宛先に通知がなされる。通知がその宛先に応じて適切な表現又は内容を有していることで、通知の宛先である他の育児者の理解をより一層深めることを支援することができる。   According to the said aspect, the notification is made to the address | destination by the expression or content which changes with the other childcare person who is the address | destination of notification, for example, father or grandparents. When the notification has an appropriate expression or content according to the destination, it is possible to help deepen the understanding of other child-care workers who are the destination of the notification.

例えば、前記通知を生成することは、前記宛先に応じて表現又は内容が異なる図柄又は文章であって前記大人の状態を示す図柄又は文章を含む前記通知を生成することを含んでもよい。   For example, generating the notification may include generating the notification including a symbol or a sentence having a different expression or content depending on the destination and indicating the adult state.

上記態様によれば、図柄又は文章を含む通知が送信される。通知に含まれる図柄又は文章によって、通知の宛先である他の育児者は、文字情報の場合より、より直観的に通知の内容を把握できる。   According to the said aspect, the notification containing a design or a text is transmitted. By the design or text included in the notification, the other childcare person who is the destination of the notification can grasp the content of the notification more intuitively than the case of the character information.

例えば、前記通知を生成することは、生成される前記通知が前記大人の状態を示す図柄又は文章を含むか含まないかが、前記宛先に応じて異なる、前記通知を生成することを含んでもよい。   For example, generating the notification may include generating the notification depending on whether the generated notification includes or does not include a graphic or a sentence indicating the adult state.

上記態様によれば、通知に図柄又は文章を含むか否かを、宛先に応じて異ならせることができる。通知の宛先によっては、通知に図柄又は文章を含むことが適切でないこともあり得るので、このような場合に図柄又は文章を含まない通知を送信するのが適切である。この態様によれば、図柄又は文章を含む通知が適切である宛先には図柄を含む通知を送信し、図柄又は文章を含まない通知が適切である宛先には図柄又は文章を含まない通知を送信し得る。   According to the above aspect, whether the notification includes a symbol or a sentence can be made different depending on the destination. Depending on the destination of the notification, it may not be appropriate to include a design or text in the notification. In such a case, it is appropriate to transmit a notification that does not include the design or text. According to this aspect, a notification including a symbol is transmitted to a destination for which a notification including a symbol or a sentence is appropriate, and a notification including no symbol or a sentence is transmitted to a destination for which a notification including no symbol or a sentence is appropriate. Can do.

例えば、前記図柄又は前記文章の表現又は内容は、前記宛先の属性に応じて異なってもよい。   For example, the representation or content of the symbol or the sentence may be different depending on the attribute of the destination.

上記態様によれば、通知に含まれる図柄又は文章の表現又は内容を、宛先の属性に応じて異ならせることができる。ここで宛先の属性とは、男性、女性、母方又は父方などを意味する。そして、宛先の属性に応じて適切な表現の文章を含む通知を送信し得る。   According to the said aspect, the expression or content of the pattern or text contained in notification can be varied according to the attribute of a destination. Here, the destination attribute means male, female, maternal or paternal. Then, a notification including a sentence with an appropriate expression can be transmitted according to the destination attribute.

例えば、前記通知を生成することは、判定された前記子供の状態、および、判定された前記大人の状態の少なくとも一方に応じて指標を算出し、算出した前記指標が閾値より高い場合にのみ、前記通知を生成することを含んでもよい。   For example, generating the notification calculates an index according to at least one of the determined child state and the determined adult state, and only when the calculated index is higher than a threshold value, It may include generating the notification.

上記態様によれば、子供の状態、又は、大人の状態から算出される指標に基づいて、通知を生成するか否かを制御できる。これにより、具体的かつ定量的に、通知を生成するか否かを制御することができる。   According to the said aspect, it can control whether notification is produced | generated based on the parameter | index calculated from the state of a child or the state of an adult. Thereby, it is possible to control whether to generate a notification specifically and quantitatively.

例えば、前記通知を生成することは、判定された前記子供の状態、および、判定された前記大人の状態の少なくとも一方に応じて指標を算出し、算出した前記指標が大きいほど、より大きな図柄を含む前記通知を生成することを含んでもよい。   For example, generating the notification calculates an index according to at least one of the determined state of the child and the determined state of the adult, and the larger the calculated index, the larger the symbol Generating said notification including.

上記態様によれば、子供の状態、又は、大人の状態から算出される指標に基づいて、通知に含まれる図柄の大きさを制御できる。これにより、具体的かつ定量的に、通知に含まれる図柄の大きさを制御し、通知の宛先である他の育児者の理解をより一層深めることに貢献し得る。   According to the said aspect, the magnitude | size of the symbol contained in notification is controllable based on the parameter | index calculated from the state of a child or the state of an adult. Thereby, it is possible to control the size of the symbols included in the notification in a specific and quantitative manner, and contribute to deepening the understanding of other child-care workers who are the notification destinations.

例えば、前記通知を生成することは、前記大人の状態を示す情報を入力装置を介して受け付け、受け付けた前記情報を、前記子供が発した形式の情報又は前記子供の状態を示す情報に変換することで、前記通知を生成することを含んでもよい。   For example, generating the notification accepts information indicating the adult state via an input device, and converts the received information into information in a form issued by the child or information indicating the child state. This may include generating the notification.

上記態様によれば、状態を表す情報を、子供が発したかのような情報、又は、子供の状態を示す情報に変換して宛先である他の育児者に送信することで、他の育児者の理解をより一層深めることに貢献し得る。   According to the above aspect, the information representing the state is converted into information indicating that the child has emitted, or the information indicating the child's state, and transmitted to the other childcare person who is the destination. It can contribute to deepening the understanding of the person.

例えば、前記宛先は、判定された前記子供の状態、および、判定された前記大人の状態に応じて定められてもよい。   For example, the destination may be determined according to the determined state of the child and the determined state of the adult.

上記態様によれば、通知の宛先が、子供の状態及び大人の状態に基づいて定められる。子供の状態及び大人の状態によっては、特定の宛先に通知することが不適切で場合があり得る。このような場合には、当該特定の宛先に通知しないようにすることができる。   According to the above aspect, the notification destination is determined based on the state of the child and the state of the adult. Depending on the condition of the child and the adult, it may be inappropriate to notify a specific destination. In such a case, it is possible not to notify the specific destination.

例えば、さらに、前記音情報が示す音に含まれる環境音を識別し、前記大人の状態を判定することは、識別された前記大人の音声、および、前記環境音に基づいて、前記大人の状態を判定することを含んでもよい。   For example, the environmental sound included in the sound indicated by the sound information is further identified, and the adult state is determined based on the identified adult voice and the environmental sound. May be included.

上記態様によれば、大人の状態を判定するためにさらに環境音が用いられる。そして、さらに環境音に基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。   According to the above aspect, the environmental sound is further used to determine the adult state. Further, a notification is generated and transmitted according to the adult state determined based on the environmental sound. Thereby, an adult's state can be determined in detail, and notification is generated and transmitted based on this detailed determination.

例えば、前記情報処理方法では、さらに、人を検知するセンサによる検知結果を取得し、前記大人の状態を判定することは、識別された前記大人の音声、および、前記検知結果に基づいて、前記大人の状態を判定することを含んでもよい。   For example, in the information processing method, the detection result by a sensor that detects a person is acquired, and the determination of the adult state is based on the identified adult voice and the detection result. It may include determining an adult state.

上記態様によれば、大人の状態を判定するためにさらにセンサが用いられる。そして、さらにセンサに基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。   According to the above aspect, the sensor is further used to determine the adult state. Further, a notification is generated and transmitted according to the adult state determined based on the sensor. Thereby, an adult's state can be determined in detail, and notification is generated and transmitted based on this detailed determination.

例えば、前記情報処理方法では、さらに、前記宛先の位置を示す位置情報を取得し、前記通知を前記宛先へ送信することは、前記位置情報を参照して、前記宛先が所定の位置にいることに応じて前記通知を前記宛先へ送信することを含んでもよい。   For example, in the information processing method, acquiring the position information indicating the position of the destination and transmitting the notification to the destination is that the destination is at a predetermined position with reference to the position information. In response to sending the notification to the destination.

上記態様によれば、通知の宛先である他の育児者の位置に応じて通知を送信し得る。他の育児者が通知を確認しやすい状態において通知を送信することにより、他の育児者が通知を認識する確実性が向上し得る。   According to the said aspect, notification can be transmitted according to the position of the other childcare person who is the destination of notification. By transmitting the notification in a state in which the other childcare person can easily confirm the notification, the certainty that the other childcare person can recognize the notification can be improved.

例えば、前記所定の位置は、乗り物に係る乗降記録機が設置されている位置であり、前記宛先に係る人が携帯する端末による近接無線通信を用いて前記乗降記録機と通信したことに応じて、前記通知を前記宛先へ送信することを含んでもよい。   For example, the predetermined position is a position where a boarding / recording device related to a vehicle is installed, and in response to communication with the boarding / recording device using proximity wireless communication by a terminal carried by a person related to the destination , Sending the notification to the destination.

上記態様によれば、他の育児者が通知を確認しやすいタイミングとして、他の育児者が乗り物に乗降したことに応じて通知を送信する。これにより、他の育児者が通知を認識する確実性がより一層向上し得る。   According to the above aspect, the notification is transmitted in response to the fact that another child-care worker gets on or off the vehicle as a timing at which the other child-care worker can easily confirm the notification. Thereby, the certainty that other child-care workers recognize the notification can be further improved.

また、本発明の一態様に係る情報処理装置は、収音装置による収音により得られる音情報が示す音に含まれる、子供の音声および大人の音声を識別する識別部と、識別された前記子供の音声に基づいて、前記子供の状態を判定する子供状態判定部と、識別された前記大人の音声に基づいて、前記大人の状態を判定する大人状態判定部と、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成する生成部と、生成された前記通知を前記宛先へ送信する送信部とを備える。   An information processing apparatus according to an aspect of the present invention includes an identification unit that identifies a child's voice and an adult's voice included in the sound indicated by the sound information obtained by sound collection by the sound collection device, and the identified A child state determination unit that determines the state of the child based on the voice of the child, an adult state determination unit that determines the state of the adult based on the voice of the identified adult, and the determined child A generation unit that generates the notification according to the state, the determined adult state, and a destination of the notification about the adult state; and a transmission unit that transmits the generated notification to the destination Is provided.

これにより、上記情報処理方法と同様の効果を奏する。   Thereby, there exists an effect similar to the said information processing method.

なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。   Note that these comprehensive or specific aspects may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM, and the system, method, integrated circuit, and computer program. Alternatively, it may be realized by any combination of recording media.

以下、実施の形態について、図面を参照しながら具体的に説明する。   Hereinafter, embodiments will be specifically described with reference to the drawings.

なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。   It should be noted that each of the embodiments described below shows a comprehensive or specific example. The numerical values, shapes, materials, constituent elements, arrangement positions and connecting forms of the constituent elements, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present invention. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements.

(実施の形態1)
本実施の形態において、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法などについて説明する。
(Embodiment 1)
In the present embodiment, an information processing method and the like for assisting in further deepening the understanding of other child-care workers regarding the situation where the child and the child-care worker spend together will be described.

まず、本発明者らが目指すサービスの概要について図1を参照しながら説明する。   First, an overview of services aimed by the present inventors will be described with reference to FIG.

図1は、本実施の形態における情報処理システム1が提供するサービスの概要を示す説明図である。   FIG. 1 is an explanatory diagram showing an overview of services provided by the information processing system 1 according to the present embodiment.

本発明者らは、子供の状態を遠隔にいる育児者に通知する技術分野において、子供の状態からだけでは見えない育児の大変さなどのネガティブな部分、または幸福感などのポジティブな部分を、他の育児者又は関係者と共有する技術に着目している。そして、上記のネガティブな部分又はポジティブな部分を他の育児者又は関係者に伝え、育児の状況の理解をより一層深めることを目指している。   In the technical field of notifying childcare persons who are remotely informed of a child's condition, the present inventors have described a negative part such as difficulty of childcare that cannot be seen only from the state of the child, or a positive part such as happiness. Focuses on technologies shared with other childcare workers or related parties. Then, the above-mentioned negative part or positive part is communicated to other child-rearing persons or related persons, aiming to deepen the understanding of the situation of child-rearing.

なお、ここで「子供」とは、乳幼児を指し、より具体的には、生後0日から、6〜7歳までの人を指すが、これに限定されない。   Here, “child” refers to an infant, and more specifically, refers to a person from the first day of life to 6 to 7 years old, but is not limited thereto.

図1に示されるように、本実施の形態における情報処理システム1では、宅内にマイクロフォンなどの音を取得する入力端末10が配置される。そして、情報処理システム1は、入力端末10により取得した音に基づいて、子供の音声と育児者の音声とを分析することで両者それぞれの状態を判定し、その状態を示す情報を他の育児者と共有すべきか否かを判断して情報を提示する。提示される情報は、他の育児者に提示されることが想定される。   As shown in FIG. 1, in the information processing system 1 according to the present embodiment, an input terminal 10 that acquires sound such as a microphone is disposed in the house. Then, the information processing system 1 determines the state of each by analyzing the sound of the child and the sound of the childcare person based on the sound acquired by the input terminal 10, and provides information indicating the state to other childcare Information should be presented after judging whether or not to share with the person. It is assumed that the information to be presented is presented to other child-care workers.

なお、上記「育児者」が子供の母親であり、上記「他の育児者」が子供の父親であり、「関係者」が子供の祖父母である場合を例として説明するが、これに限定されない。より一般的には、上記「育児者」及び上記「他の育児者」ともに、大人でありさえすれば本実施の形態が適用され得る。なお、「大人」は、子供でない人とも表現され得る。   In addition, although the case where the “childcare person” is the mother of the child, the “other childcare person” is the father of the child, and the “participant” is the child's grandparent is described as an example, the present invention is not limited thereto. . More generally, as long as both the “childcare worker” and the “other childcare worker” are adults, this embodiment can be applied. “Adult” can also be expressed as a person who is not a child.

これにより、父親は、従来技術では把握できない育児の状況を把握することができる。また、父親は、育児の状況に加えて、日々の育児及び家事における、母親にとって負荷が極めて高いタイミング、または、母親にとっての幸福なタイミングを知ることができる。父親がこれらのタイミングを知ることができれば、これらのことについて後に夫婦で話す時間を設けるなどして、その事象についての詳しい情報を夫婦で共有することができる。このように、本実施の形態の情報処理システム1は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する。   Thereby, the father can grasp the situation of child care that cannot be grasped by the conventional technology. Further, in addition to the situation of childcare, the father can know the timing when the burden on the mother is extremely high or the happiness time for the mother in daily childcare and housework. If the father knows these timings, the couple can share detailed information about the event, such as by giving them time to talk about these things later. As described above, the information processing system 1 according to the present embodiment assists in further deepening the understanding of other child-care workers about the situation in which the child and the child-care worker are spending time together.

以降において、本実施の形態の情報処理システム1等について詳しく説明する。   Hereinafter, the information processing system 1 and the like according to the present embodiment will be described in detail.

図2は、本実施の形態における情報処理システム1の機能を示すブロック図である。   FIG. 2 is a block diagram illustrating functions of the information processing system 1 in the present embodiment.

図2に示されるように、情報処理システム1は、入力部101と、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108と、送信部109と、表示部110とを備える。   As shown in FIG. 2, the information processing system 1 includes an input unit 101, an identification unit 102, a child state determination unit 103, a mother state determination unit 104, holding units 105 and 106, a sharing determination unit 107, , A generation unit 108, a transmission unit 109, and a display unit 110.

入力部101は、収音装置により周囲の音を収音し、収音した音を示す音情報を生成する入力装置である。入力部101は、例えば、マイクロフォンである。   The input unit 101 is an input device that collects ambient sounds with a sound collection device and generates sound information indicating the collected sound. The input unit 101 is a microphone, for example.

識別部102は、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、および、母親の音声を識別する。例えば、識別部102が子供の音声、および、母親の音声を識別する際には、子供の音声の周波数が比較的高く、母親の音声の周波数が比較的低いという特徴を利用して、所定より低い周波数を子供の音声と識別し、所定より高い周波数を母親の音声と識別することができる。   The identification unit 102 acquires sound information from the input unit 101 and identifies a child's voice and a mother's voice included in the sound indicated by the acquired sound information. For example, when the identification unit 102 identifies a child's voice and a mother's voice, the frequency of the child's voice is relatively high and the frequency of the mother's voice is relatively low. A low frequency can be identified as a child's voice, and a frequency higher than a predetermined frequency can be identified as a mother's voice.

子供状態判定部103は、識別部102により識別された子供の音声を分析することで、子供の状態を判定する処理部である。   The child state determination unit 103 is a processing unit that determines the child state by analyzing the voice of the child identified by the identification unit 102.

母親状態判定部104は、識別部102により識別された母親の音声を分析することで、母親の状態を判定する処理部である。   The mother state determination unit 104 is a processing unit that determines the state of the mother by analyzing the mother's voice identified by the identification unit 102.

保持部105は、子供状態判定部103により判定された子供の状態を一時的に、又は、恒久的に保持する記憶装置である。   The holding unit 105 is a storage device that holds the child state determined by the child state determination unit 103 temporarily or permanently.

保持部106は、母親状態判定部104により判定された母親の状態を一時的に、又は、恒久的に保持する記憶装置である。   The holding unit 106 is a storage device that holds the state of the mother determined by the mother state determination unit 104 temporarily or permanently.

共有判定部107は、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態とに基づいて、これらの状態を示す情報を予め登録されている宛先(例えば父親又は祖父母)と共有すべきか否かを判定する処理部である。   Based on the state of the child held in the holding unit 105 and the state of the mother held in the holding unit 106, the sharing determination unit 107 stores information indicating these states in advance as registered destinations (for example, It is a processing unit that determines whether or not to share with a father or grandparent).

生成部108は、予め登録された人物と共有すべきと共有判定部107により判定されたことに応じて、予め登録されている宛先(例えば父親又は祖父母)に提示すべき通知を生成する処理部である。通知の生成の際には、当該通知の宛先に応じて、通知が生成される。通知の内容等については、後で詳しく説明する。   The generation unit 108 generates a notification to be presented to a pre-registered destination (for example, father or grandparent) when the sharing determination unit 107 determines that it should be shared with a pre-registered person. It is. When generating a notification, a notification is generated according to the destination of the notification. The contents of the notification will be described in detail later.

送信部109は、生成部108により生成された画像を父親又は祖父母の携帯端末に送信する処理部である。送信部109は、画像を示す情報を送信するための送信回路、及び、コネクタ又はアンテナなどを含む。   The transmission unit 109 is a processing unit that transmits the image generated by the generation unit 108 to the portable terminal of the father or grandparent. The transmission unit 109 includes a transmission circuit for transmitting information indicating an image, a connector, an antenna, and the like.

表示部110は、送信部109により送信された画像を表示する表示部である。表示部110は、例えば、携帯電話又はスマートフォンなどの携帯端末の表示画面である。   The display unit 110 is a display unit that displays the image transmitted by the transmission unit 109. The display unit 110 is a display screen of a mobile terminal such as a mobile phone or a smartphone, for example.

なお、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108とは、例えば、プロセッサがメモリを用いて、記憶装置等に保存された所定のプログラムを実行することで実現され得る。   The identification unit 102, the child state determination unit 103, the mother state determination unit 104, the holding units 105 and 106, the sharing determination unit 107, and the generation unit 108 are stored by a processor using a memory, for example. It can be realized by executing a predetermined program stored in a device or the like.

なお、識別部102が、入力部101から取得した音情報が示す音から子供の音声を識別する技術は、例えば、公知の子供音声識別技術であるxauris(ゾウリス)を用いて実現され得る。xaurisは、開発者らがあらかじめ集めた子供の音声と状態との関係を示す学習データからディープラーニングを用いて構築された学習モデルを用いて、実行環境において入力された子供の音声から子供の状態を「泣き」、「笑い」、「ぐずり」、「喃語(言葉にならない発話)」の4種類に識別する。よって、識別部102が行う処理のうちの子供の音声を識別する処理と、子供状態判定部103が行う処理とは、xaurisで実現され得る。この場合、子供状態判定部103の判定結果として、「泣き」、「笑い」、「ぐずり」及び「喃語」の4種類の状態が保持部105に格納される。   In addition, the technique which the identification part 102 identifies a child's audio | voice from the sound which the sound information acquired from the input part 101 shows can be implement | achieved using xauris (Elephant) which is a well-known child audio | voice identification technique, for example. xauris uses a learning model constructed using deep learning from learning data showing the relationship between children's voices and states collected in advance by developers. Are categorized into four types: “crying”, “laughing”, “guzuri”, and “spoken words (utterances that do not become words)”. Therefore, the process of identifying the child's voice among the processes performed by the identification unit 102 and the process performed by the child state determination unit 103 can be realized by xauris. In this case, four types of states of “crying”, “laughing”, “guzuri”, and “gogo” are stored in the holding unit 105 as determination results of the child state determination unit 103.

また、識別部102が、入力部101から取得した音情報が示す音から母親の音声を識別する技術は、公知の話者識別技術を用いて実現され得る。話者識別技術は、さまざまな要素技術により構成されるが、例えば、基本周波数と特定の帯域のスペクトル包絡特性とを用いて検出する方法が採用され得る。ただし、話者識別技術を用いる代わりに、マイクロフォンのような収音デバイスを母親の衣類または装飾品に装着または搭載し、この収音デバイスが取得する音声が母親の音声であると識別する方法を採用してもよい。   Moreover, the technique in which the identification unit 102 identifies the mother's voice from the sound indicated by the sound information acquired from the input unit 101 can be realized using a known speaker identification technique. The speaker identification technique is constituted by various element techniques. For example, a detection method using a fundamental frequency and a spectral envelope characteristic of a specific band can be adopted. However, instead of using speaker identification technology, there is a method in which a sound collection device such as a microphone is attached to or mounted on the mother's clothing or decoration and the sound acquired by the sound collection device is identified as the mother's voice. It may be adopted.

なお、母親状態判定部104が、識別部102により識別された母親の音声を分析して母親の状態を判定する技術は、公知の感情解析エンジンを用いて実現され得る。例えば、感情解析エンジンは、人の声を「言葉」としてではなく、「音(トーン)」として捕え、音から人の感情を数値化する。出力される感情は、例えば、「怒り」、「集中」、「困惑」、「興奮」、「思考」、「ストレス」、「躊躇」、「幸福感」、「興味・関心」、「悲しみ・不満」などがある。ここでは、母親状態判定部104が、上記のように「怒り」等の感情を出力する場合を例として説明する。母親状態判定部104の判定結果は、例えば、「怒り:5」、「集中:8」、「困惑:2」というように、感情と数値との組み合わせとして保持部106に格納される。   The technique in which the mother state determination unit 104 analyzes the mother's voice identified by the identification unit 102 to determine the mother's state can be realized using a known emotion analysis engine. For example, the emotion analysis engine captures a person's voice as “sound (tone)” instead of “word” and quantifies the person's emotion from the sound. The emotions that are output include, for example, “anger”, “concentration”, “confused”, “excitement”, “thinking”, “stress”, “躊躇”, “happiness”, “interest / interest”, “sadness / Dissatisfied ”. Here, a case where the mother state determination unit 104 outputs an emotion such as “anger” as described above will be described as an example. The determination result of the mother state determination unit 104 is stored in the holding unit 106 as a combination of emotions and numerical values, for example, “anger: 5”, “concentration: 8”, “confused: 2”.

なお、情報処理システム1は、例えば、入力端末10と、サーバ20と、表示端末30とを備えて構成される。入力端末10とサーバ20との間、及び、サーバ20と表示端末30との間はネットワーク(不図示)により通信可能に接続されている。情報処理システム1が備える上記の機能ブロックは、入力端末10と、サーバ20と、表示端末30とが分担して備える。   Note that the information processing system 1 includes, for example, an input terminal 10, a server 20, and a display terminal 30. The input terminal 10 and the server 20 and the server 20 and the display terminal 30 are communicably connected via a network (not shown). The functional block provided in the information processing system 1 is provided by the input terminal 10, the server 20, and the display terminal 30.

例えば、入力端末10は、母親のスマートフォンなどの携帯端末、又は、収音装置と通信機能とを有する専用装置などを採用し得る。サーバ20は、入力端末10及び表示端末30とネットワークを介して通信可能に接続され得るサーバ装置、いわゆるクラウドサーバなどを採用し得る。表示端末30は、父親のスマートフォン等の携帯端末を採用し得る。   For example, the input terminal 10 may employ a portable terminal such as a mother's smartphone or a dedicated device having a sound collection device and a communication function. The server 20 may employ a server device that can be connected to the input terminal 10 and the display terminal 30 via a network, such as a so-called cloud server. The display terminal 30 may employ a portable terminal such as a father's smartphone.

そして、入力端末10が入力部101を備える。サーバ20が、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108と、送信部109とを備える。表示端末30が表示部110を備える。   The input terminal 10 includes an input unit 101. The server 20 includes an identification unit 102, a child state determination unit 103, a mother state determination unit 104, holding units 105 and 106, a sharing determination unit 107, a generation unit 108, and a transmission unit 109. The display terminal 30 includes a display unit 110.

この場合、入力端末10は、入力部101が生成した音情報をネットワークを通じてサーバ20の識別部102に送信する。また、サーバ20は、送信部109が送信する画像等のデータをネットワークを通じて表示端末30の表示部110に送信する。   In this case, the input terminal 10 transmits the sound information generated by the input unit 101 to the identification unit 102 of the server 20 through the network. In addition, the server 20 transmits data such as an image transmitted by the transmission unit 109 to the display unit 110 of the display terminal 30 through the network.

なお、上記の各装置の機能の分担は、あくまで一例であり、他の機能分担を採用することも可能である。   Note that the above-described function sharing of each device is merely an example, and other function sharing may be employed.

図3は、本実施の形態における共有判定部107が判定に用いる条件を示すテーブルT1の説明図である。テーブルT1には、共有判定部107が判定に用いる条件の例である第一条件及び第二条件が示されている。   FIG. 3 is an explanatory diagram of the table T1 showing the conditions used for the determination by the sharing determination unit 107 in the present embodiment. The table T1 shows the first condition and the second condition, which are examples of conditions used by the sharing determination unit 107 for determination.

共有判定部107は、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態とに基づいて、これらの状態を示す情報を父親又は祖父母と共有すべきか否かを判定する。この判定のための条件には、さまざまなものが採用され得るが、例えば、ネガティブな状況において上記情報を共有すべきと判定するための条件(第一条件)と、ポジティブな状況において上記情報を共有すべきと判定するための条件(第二条件)とのいずれかが満たされる場合に、上記情報を父親等と共有すべきと共有判定部107が判定する。以降において、各状況、並びに、第一条件及び第二条件について説明する。   Based on the state of the child held in the holding unit 105 and the state of the mother held in the holding unit 106, the sharing determination unit 107 should share information indicating these states with the father or grandparent. Determine whether. Various conditions can be adopted for the determination. For example, the condition for determining that the information should be shared in a negative situation (first condition), and the information in a positive situation. When any of the conditions (second condition) for determining that the information should be shared is satisfied, the sharing determination unit 107 determines that the information should be shared with the father or the like. Hereinafter, each situation, and the first condition and the second condition will be described.

(1)ネガティブな状況、及び、第一条件について
ネガティブな状況とは、子供が泣いたりぐずったりしており、かつ、母親が怒りなどのネガティブな感情を抱いている状況を指す。このような状況では、父親又は祖父母による育児若しくは家事の助け、又は、心理面での支えが必要であるので、これらの状態を示す情報を父親又は祖父母と共有すべきであると考えられる。
(1) Negative Situation and First Condition Negative Situation refers to a situation where the child is crying or lazy and the mother has negative emotions such as anger. In such a situation, since it is necessary to support childcare or housework by the father or grandparents or to support psychologically, it is considered that information indicating these states should be shared with the father or grandparents.

第一条件は、保持部105に格納された子供の状態についての条件(「子供の条件」ともいう)と、保持部106に格納された母親の状態についての条件(「母親の条件」ともいう)とにより規定される。具体的には、第一条件は、保持部105に格納された子供の状態が「泣き」または「ぐずり」であり、かつ、母親の感情に基づいて以下の(式1)により算出される第一指標が閾値以上であること、とすることができる。   The first condition is a condition regarding the state of the child stored in the holding unit 105 (also referred to as “child condition”) and a condition regarding the state of the mother stored in the holding unit 106 (also referred to as “mother condition”). ). Specifically, the first condition is that the child state stored in the holding unit 105 is “crying” or “guzuri”, and the first condition is calculated by the following (Equation 1) based on the emotion of the mother. One index may be greater than or equal to a threshold value.

第一指標=(「怒り」の度合い)+(「ストレス」の度合い)+(「困惑」の度合い)−(「幸福感」の度合い) (式1)   First index = (degree of “anger”) + (degree of “stress”) + (degree of “confused”) − (degree of “happiness”) (Formula 1)

ここで、上記の「怒り」等の各感情は、保持部106に格納された、上記時点における母親の状態から取得される。また、例えば、「怒り」等の各感情の度合いが0〜10で評価される場合、第一条件における閾値は例えば15とする。   Here, each emotion such as “anger” is acquired from the state of the mother stored in the holding unit 106 at the time point. For example, when the degree of each emotion such as “anger” is evaluated from 0 to 10, the threshold value in the first condition is, for example, 15.

なお、第一指標は、当該状態を母親と父親とで共有する重要性を示す指標とも言える。第一指標は、上記の他、1以上のネガティブな感情の度合いの合計から、1以上のポジティブな感情の度合いを減算した結果として算出されてもよいし、1以上のネガティブな感情の度合いの合計のみから算出されてもよい。   The first index can be said to be an index indicating the importance of sharing the state between the mother and the father. In addition to the above, the first index may be calculated as a result of subtracting the degree of one or more positive emotions from the total degree of one or more negative emotions, It may be calculated from only the total.

なお、第一条件の判定において、上記の子供の条件と母親の条件とが、所定の時間(「継続時間」ともいう。例えば60秒)以上継続して満たされる場合にのみ、第一条件を満たすと判定するようにしてもよい。子供の状態と母親の状態とについて、数秒程度の短時間だけにネガティブな状況が発生したとしても、その情報を父親などと共有する必要性は比較的低いと考えられるためである。以降では、子供の条件と母親の条件とが所定の継続時間だけ継続して満たされる場合に第一条件を満たすと判定する場合を説明する。   In the determination of the first condition, the first condition is satisfied only when the child condition and the mother condition are satisfied for a predetermined time (also referred to as “duration”, for example, 60 seconds). You may make it determine with satisfy | filling. This is because even if a negative situation occurs in only a short time of about a few seconds regarding the state of the child and the state of the mother, it is considered that the necessity of sharing the information with the father or the like is relatively low. Hereinafter, a case will be described in which it is determined that the first condition is satisfied when the child condition and the mother condition are continuously satisfied for a predetermined duration.

(2)ポジティブな状況、及び、第二条件について
ポジティブな状況とは、子供が笑ったり喃語を発したりしており、かつ、母親が幸福感などのポジティブな感情を抱いている状況を指す。このような状況では、父親又は祖父母にも同様の感情を抱かせるのが望ましいので、これらの状態を示す情報を父親又は祖父母と共有すべきであると考えられる。
(2) Positive situation and second condition A positive situation refers to a situation in which a child laughs or speaks and a mother has a positive feeling such as happiness. In such a situation, it is desirable to have the father or grandparents have similar feelings, so information indicating these conditions should be shared with the father or grandparents.

第二条件は、保持部105に格納された子供の状態についての条件、つまり、子供の条件と、保持部106に格納された母親の状態についての条件、つまり、母親の条件とにより規定される。具体的には、第二条件は、保持部105に格納された子供の状態が「笑い」または「喃語」であり、かつ、母親の感情に基づいて以下の(式2)により算出される第二指標が閾値以上であること、とすることができる。   The second condition is defined by the condition regarding the state of the child stored in the holding unit 105, that is, the condition of the child, and the condition regarding the state of the mother stored in the holding unit 106, that is, the condition of the mother. . Specifically, the second condition is that the state of the child stored in the holding unit 105 is “laughter” or “Language”, and is calculated by the following (Equation 2) based on the emotion of the mother. The two indices can be equal to or greater than a threshold value.

第二指標=(「幸福感」の度合い)+(「集中」の度合い)+(「興味」の度合い)−(「ストレス」の度合い) (式2)   Second index = (degree of “happiness”) + (degree of “concentration”) + (degree of “interest”) − (degree of “stress”) (Formula 2)

ここで、上記の「幸福感」等の各感情は、保持部106に格納された、上記時点における母親の状態から取得される。また、例えば、「幸福感」等の各感情の度合いが0〜10で評価される場合、第一条件における閾値は例えば15とする。   Here, each emotion such as the above “happiness” is acquired from the state of the mother stored in the holding unit 106 at the time point. For example, when the degree of each emotion such as “happiness” is evaluated from 0 to 10, the threshold value in the first condition is, for example, 15.

なお、第二指標は、第一指標と同様、当該状態を母親と父親とで共有する重要性を示す指標とも言える。第二指標は、第一指標と同様、1以上のポジティブな感情の度合いの合計から、1以上のネガティブな感情の度合いを減算した結果として算出されてもよいし、1以上のポジティブな感情の度合いの合計のみから算出されてもよい。   The second index can be said to be an index indicating the importance of sharing the state between the mother and the father, like the first index. The second index may be calculated as a result of subtracting the degree of one or more negative emotions from the total degree of one or more positive emotions, as in the case of the first index. It may be calculated only from the total degree.

なお、第二条件の判定においても、第一条件の場合と同様、上記の子供の条件と母親の条件とが、所定の時間(つまり継続時間)以上継続して満たされる場合にのみ、第二条件を満たすと判定するようにしてもよい。以降では、子供の条件と母親の条件とが所定の継続時間だけ継続して満たされる場合に第二条件を満たすと判定する場合を説明する。   In the determination of the second condition, as in the case of the first condition, only when the child condition and the mother's condition are continuously satisfied for a predetermined time (that is, the duration time) or more, You may make it determine with satisfy | filling conditions. Hereinafter, a case where it is determined that the second condition is satisfied when the child condition and the mother condition are continuously satisfied for a predetermined duration will be described.

図4は、本実施の形態における通知の宛先と、通知の内容を示すテーブルT2の説明図である。テーブルT2には、第一条件及び第二条件のそれぞれが満たされた場合の、通知の宛先と、通知の宛先ごとの通知の内容とが示されている。通知の宛先は、子供の状態、および、大人の状態に応じて定められている。   FIG. 4 is an explanatory diagram of the table T2 showing the notification destination and the notification content in the present embodiment. The table T2 shows the notification destination and the content of the notification for each notification destination when each of the first condition and the second condition is satisfied. The address of the notification is determined according to the condition of the child and the condition of the adult.

(1)第一条件が満たされた場合
生成部108は、共有判定部107が第一条件を満たすと判定した場合には、子供の父親と、子供の母方の祖父母とのそれぞれに提示するための通知を生成する。
(1) When the first condition is satisfied When the sharing determination unit 107 determines that the first condition is satisfied, the generation unit 108 presents it to each of the child's father and the child's maternal grandparent. Generate a notification for.

例えば、子供の父親に提示するための通知としては、子供と母親との状態を時系列で示すグラフ上における、第一条件を満たすと判定した時点に相当する位置に、所定の画像を付加した画像を生成する。ここで、所定の画像は、例えば、猫の手のイラスト(図柄)を示す画像である。この所定の画像が付加された時点での母親の状況が、極めて忙しい状況、いわゆる猫の手も借りたい状況(日本のことわざに由来した表現)である時点であるからである。また、所定の画像は、「ママを困らせちゃいました」というメッセージのように、その時点の状況を子供が発したかのような言葉を示す画像としてもよい。   For example, as a notification to be presented to the child's father, a predetermined image is added to the position corresponding to the point in time when it is determined that the first condition is satisfied on the graph showing the state of the child and the mother in time series. Generate an image. Here, the predetermined image is, for example, an image showing an illustration (design) of a cat's hand. This is because the mother's situation at the time when the predetermined image is added is a very busy situation, that is, a situation in which a so-called cat's hand is desired (an expression derived from a Japanese proverb). In addition, the predetermined image may be an image indicating words as if the child had uttered the situation at that time, such as a message “I was in trouble with my mom”.

また、例えば、子供の母方の祖父母に提示するための通知としては、「めっちゃ大変なんですけど」というメッセージのように、その時点の状況を母親が発したような言葉を示す画像としてもよい。   Further, for example, the notification to be presented to the child's maternal grandparents may be an image showing the words that the mother has uttered the situation at that time, such as a message “It is very hard”.

(2)第二条件が満たされた場合
生成部108は、共有判定部107が第二指標を算出した場合には、子供の父親と、母方の祖父母と、父方の祖父母とのそれぞれに提示するための通知を生成する。
(2) When the second condition is satisfied When the sharing determination unit 107 calculates the second index, the generation unit 108 presents each of the child's father, the maternal grandparent, and the paternal grandparent. Generate notifications for

例えば、子供の父親と、父方の祖父母の場合には、子供と母親との状態を時系列で示すグラフ上における、第二条件を満たすと判定した時点に相当する位置に、所定の画像を付加した画像を生成する。ここで、所定の画像は、例えば、母子の笑顔のイラストを示す画像である。また、所定の画像は、「すっごくたのしんでまちゅ!」というメッセージのように、その時点の母親及び子供の状況を子供が発したかのような言葉を示す画像としてもよい。   For example, in the case of a child's father and paternal grandparents, a predetermined image is added at a position corresponding to the point in time when it is determined that the second condition is satisfied on the graph showing the state of the child and the mother in time series Generated image. Here, the predetermined image is, for example, an image showing an illustration of a smiling mother and child. In addition, the predetermined image may be an image indicating words as if the child had uttered the situation of the mother and the child at that time, such as a message “That's so fun!”

また、例えば、子供の母方の祖父母に提示するための通知としては、「すっごく楽しいことがありました!」というメッセージのように、その時点の状況を母親が発したような言葉を示す画像としてもよい。   Also, for example, as a notification to be presented to the child's maternal grandparents, an image showing the words that the mother spoke about the situation at that time, such as the message “I had so much fun!” Good.

このように、生成部108は、通知の宛先に応じて異なる表現又は内容を有する通知を生成してもよい。これにより、通知の宛先である他の育児者、例えば、父親又は祖父母に応じて異なる表現又は内容によって、その宛先に通知がなされる。通知がその宛先に応じて適切な表現又は内容を有していることで、通知の宛先である他の育児者の理解をより一層深めることを支援することができる。   As described above, the generation unit 108 may generate a notification having different expressions or contents depending on the destination of the notification. Thus, the destination is notified with different expressions or contents depending on other child-rearing persons, for example, fathers or grandparents, who are the destination of the notification. When the notification has an appropriate expression or content according to the destination, it is possible to help deepen the understanding of other child-care workers who are the destination of the notification.

また、生成部108は、母親の状態を示す図柄又は文章を含む通知を生成してもよい。これにより、図柄又は文章を含む通知が送信される。通知に含まれる図柄又は文章によって、通知の宛先である他の育児者は、より直観的に通知の内容を把握できる。   Further, the generation unit 108 may generate a notification including a pattern or a sentence indicating the mother's state. Thereby, the notification containing a design or a sentence is transmitted. From the design or text included in the notification, the other child-caregivers who are the notification recipients can grasp the content of the notification more intuitively.

そして、生成部108は、通知を生成する際には、生成される通知が母親の状態を示す図柄又は文章を含むか含まないかが、宛先に応じて異なる通知を生成してもよい。また、生成部108は、通知を生成する際には、図柄又は文章の内容が、宛先に応じて異なる通知を生成してもよい。これにより、通知に図柄又は文章を含むか否かを、宛先に応じて異ならせることができる。通知の宛先によっては、通知に図柄又は文章を含むことが適切でないこともあり得るので、このような場合に図柄又は文章を含まない通知を送信するのが適切である。この態様によれば、図柄又は文章を含む通知が適切である宛先には図柄又は文章を含む通知を送信し、図柄又は文章を含まない通知が適切である宛先には図柄又は文章を含まない通知を送信し得る。   And the production | generation part 108 may produce | generate the notification from which the notification produced | generated includes or does not contain the pattern or sentence which shows the state of a mother according to a destination, when producing | generating a notification. Further, when generating the notification, the generation unit 108 may generate a notification in which the contents of the symbols or texts differ depending on the destination. Thereby, it can be made different according to a destination whether a design includes a design or a sentence. Depending on the destination of the notification, it may not be appropriate to include a design or text in the notification. In such a case, it is appropriate to transmit a notification that does not include the design or text. According to this aspect, a notification including a symbol or text is transmitted to a destination where the notification including the symbol or text is appropriate, and a notification including no symbol or text is transmitted to a destination where the notification not including the symbol or text is appropriate. Can be sent.

また、生成部108は、通知を生成する際には、生成される通知に含まれる図柄又は文章の表現又は内容が、宛先に応じて異なる通知を生成してもよい。これにより、通知に含まれる図柄又は文章の表現又は内容を、宛先に応じて異ならせることができる。そして、宛先に応じて適切な表現又は内容の図柄又は文章を含む通知を送信し得る。   Further, when generating the notification, the generation unit 108 may generate a notification in which the expression or content of the symbol or text included in the generated notification differs depending on the destination. Thereby, the expression or content of the design or text included in the notification can be varied depending on the destination. And the notification containing the pattern or text of an appropriate expression or content according to a destination can be transmitted.

また、生成部108は、通知を生成する際には、文章の表現が宛先の属性に応じて異なる通知を生成してもよい。これにより、通知に含まれる文章の表現を、宛先の属性に応じて異ならせることができる。ここで宛先の属性とは、男性、女性、母方又は父方などを意味する。そして、宛先の属性に応じて適切な表現の文章を含む通知を送信し得る。   Further, when generating the notification, the generation unit 108 may generate a notification in which the expression of the text is different depending on the attribute of the destination. Thereby, the expression of the text included in the notification can be changed according to the attribute of the destination. Here, the destination attribute means male, female, maternal or paternal. Then, a notification including a sentence with an appropriate expression can be transmitted according to the destination attribute.

なお、生成部108は、通知を生成する際には、子供の状態、および、母親の状態の少なくとも一方に応じて通知の重要性を示す指標を算出し、算出した指標が閾値より高い場合にのみ、通知を生成してもよい。上記の第一指標及び第二指標は、母親の状態に応じて通知の重要性を示す指標の一例である。上記の第一指標及び第二指標の代わりに、子供の状態に応じて通知の重要性を示す指標を採用することも可能である。これにより、子供の状態、又は、大人の状態から算出される指標に基づいて、通知を生成するか否かを制御できる。これにより、具体的かつ定量的に、通知を生成するか否かを制御することができる。   Note that when generating the notification, the generation unit 108 calculates an index indicating the importance of the notification according to at least one of the state of the child and the state of the mother, and the calculated index is higher than the threshold value. Only a notification may be generated. Said 1st parameter | index and 2nd parameter | index are examples of the parameter | index which shows the importance of notification according to a mother's condition. Instead of the first index and the second index, it is possible to employ an index indicating the importance of notification according to the condition of the child. Thereby, it is possible to control whether or not to generate a notification based on an index calculated from a child state or an adult state. Thereby, it is possible to control whether to generate a notification specifically and quantitatively.

なお、生成部108は、通知を生成する際には、子供の状態、および、母親の状態の少なくとも一方に応じて、通知の重要性を示す指標を算出し、算出した指標が大きいほど、より大きな図柄を含む通知を生成してもよい。具体的には、上記の猫の手のイラスト、又は、母子の笑顔を示すイラストの寸法をより大きくしてもよい。これにより、子供の状態、又は、大人の状態から算出される指標に基づいて、通知に含まれる図柄の大きさを制御できる。これにより、具体的かつ定量的に、通知に含まれる図柄の大きさを制御し、通知の宛先である他の育児者の理解をより一層深めることに貢献し得る。   When generating the notification, the generation unit 108 calculates an index indicating the importance of the notification according to at least one of the state of the child and the state of the mother, and the larger the calculated index, the more A notification including a large symbol may be generated. Specifically, the size of the above-described illustration of the cat's hand or the illustration showing the smile of the mother and child may be made larger. Thereby, the size of the symbol included in the notification can be controlled based on the index calculated from the state of the child or the state of the adult. Thereby, it is possible to control the size of the symbols included in the notification in a specific and quantitative manner, and contribute to deepening the understanding of other child-care workers who are the notification destinations.

以上のように構成された情報処理装置について、その処理の流れを具体例と図面を用いて説明する。   The processing flow of the information processing apparatus configured as described above will be described with reference to specific examples and drawings.

図5は、本実施の形態における識別部102、子供状態判定部103及び母親状態判定部104が実行する処理の流れを示すフロー図である。   FIG. 5 is a flowchart showing a flow of processing executed by the identification unit 102, the child state determination unit 103, and the mother state determination unit 104 in the present embodiment.

ステップS1において、識別部102は、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、および、母親の音声を識別する。   In step S1, the identification unit 102 acquires sound information from the input unit 101, and identifies a child's voice and a mother's voice included in the sound indicated by the acquired sound information.

ステップS2において、識別部102は、ステップS1で子供の音声が識別されたか否かを判定する。子供の音声が識別されたと判定した場合(ステップS2でYes)にはステップS3に進み、そうでない場合(ステップS2でNo)にはステップS4に進む。   In step S2, the identification unit 102 determines whether or not a child's voice has been identified in step S1. If it is determined that the child's voice has been identified (Yes in step S2), the process proceeds to step S3. If not (No in step S2), the process proceeds to step S4.

ステップS3において、子供状態判定部103は、ステップS1で識別した子供の音声に基づいて子供の状態を判定し、子供の状態を保持部105に格納する。   In step S <b> 3, the child state determination unit 103 determines the child state based on the child voice identified in step S <b> 1 and stores the child state in the holding unit 105.

ステップS4において、識別部102は、ステップS1で母親の音声が識別されたか否かを判定する。母親の音声が識別されたと判定した場合(ステップS4でYes)にはステップS5に進み、そうでない場合(ステップS4でNo)には、本フロー図に示された一連の処理を終了する。   In step S4, the identification unit 102 determines whether or not the mother's voice is identified in step S1. If it is determined that the mother's voice has been identified (Yes in step S4), the process proceeds to step S5. If not (No in step S4), the series of processes shown in the flowchart is terminated.

ステップS5において、母親状態判定部104は、ステップS1で識別した母親の音声に基づいて母親の状態を判定し、母親の状態を保持部106に格納する。   In step S5, the mother state determination unit 104 determines the mother's state based on the mother's voice identified in step S1, and stores the mother's state in the holding unit 106.

以上の処理について、具体例に当てはめながら、さらに詳しく声明する。   Regarding the above processing, a statement will be made in more detail while applying a specific example.

ここでは、ある日の夕方、夕飯の支度時に母親がキッチンに立ったところ、少しお腹がすいてきた2歳の子供が母親に相手してほしさにぐずり出してしまったシーンを例に説明する。子供が泣きながら母親をキッチンから連れ出そうとして、また、早くご飯を食べたいことから「あっちーあっちーい!」、「ほちい!」などという言葉を発しながら、母親の作業を邪魔し、ぐずって泣き出してしまった。これに対し、母親が「今は無理!」、「ごはん食べられないよ?いいの!?」、「だーめ!」などという言葉を発しながら、無理やり作業をすすめようとするやり取りが2分間続いたとする。   Here, an example is given of a scene in which a mother who was standing in the kitchen at the evening of dinner on a certain day, a 2-year-old child who was a little hungry, started to crawl against her mother. Trying to take the mother out of the kitchen while the child is crying, and because he wants to eat rice as soon as possible, uttering words such as “Ah, Ah! I started crying. On the other hand, while mothers say “I can't eat now!”, “I ca n’t eat rice? Suppose it continues.

まず、識別部102が、入力部101から取得した音情報に含まれる子供の音声「あっちーあっちーい!」及び「ほちい!」を識別する。また、識別部102が、入力部101から取得した音情報に含まれる母親の音声「今は無理!」、「ごはん食べられないよ?いいの!?」及び「だーめ!」を識別する(ステップS1)。   First, the identification unit 102 identifies children's voices “Achi-Achi-Ai!” And “Hochi-Ai!” Included in the sound information acquired from the input unit 101. Further, the identification unit 102 identifies the mother's voices “Now it is impossible!”, “I can't eat rice?” And “Dame!” Included in the sound information acquired from the input unit 101. (Step S1).

子供状態判定部103は、ステップS1で識別した子供の音声「あっちーあっちーい!」及び「ほちい!」に基づいて、子供の状態が「ぐずり」であると判定し、その判定結果を保持部105に格納する(ステップS3)。   The child state determination unit 103 determines that the child state is “Gurzuri” on the basis of the child voices “Atchi Atchiai!” And “Hochii!” Identified in Step S1, and determines the determination result. The data is stored in the holding unit 105 (step S3).

母親状態判定部104は、ステップS1で識別した母親の音声「今は無理!」、「ごはん食べられないよ?いいの!?」及び「だーめ!」に基づいて、母親の状態が「怒り:8」、「困惑:8」、「ストレス:9」、「幸福感:1」であると判定し、その判定結果を保持部106に格納する(ステップS5)。   Based on the mother's voices identified in step S1, “I can't eat now!”, “I ca n’t eat rice?” And “Dame!” It is determined that anger is “8”, “confused: 8”, “stress: 9”, and “happiness: 1”, and the determination result is stored in the holding unit 106 (step S5).

次に、共有判定部107による処理について説明する。   Next, processing by the sharing determination unit 107 will be described.

図6は、本実施の形態における共有判定部107が実行する処理の流れを示すフロー図である。   FIG. 6 is a flowchart showing a flow of processing executed by the sharing determination unit 107 in the present embodiment.

ステップS11において、共有判定部107は、保持部105から子供の状態を取得し、また、保持部106から母親の状態を取得する。   In step S <b> 11, the sharing determination unit 107 acquires the state of the child from the holding unit 105 and acquires the state of the mother from the holding unit 106.

ステップS12において、共有判定部107は、ステップS11で取得した子供の状態が「泣き」又は「ぐずり」であるか否かを判定する。子供の状態が「泣き」又は「ぐずり」である場合(ステップS12でYes)には、ステップS13に進み、そうでない場合(ステップS12でNo)には、ステップS21に進む。   In step S12, the sharing determination unit 107 determines whether or not the child state acquired in step S11 is “crying” or “guzuri”. If the child's state is “crying” or “guzuri” (Yes in step S12), the process proceeds to step S13, and if not (No in step S12), the process proceeds to step S21.

ステップS13において、共有判定部107は、ステップS11で取得した母親の状態に基づいて上記(式1)を用いて第一指標を算出する。   In step S13, the sharing determination unit 107 calculates the first index using the above (Equation 1) based on the mother's state acquired in step S11.

ステップS14において、共有判定部107は、算出した第一指標が閾値以上であるか否かを判定する。第一指標が閾値以上である場合(ステップS14でYes)には、ステップS15に進み、そうでない場合(ステップS14でNo)には、本フロー図の処理を終了する。   In step S14, the sharing determination unit 107 determines whether or not the calculated first index is greater than or equal to a threshold value. If the first index is equal to or greater than the threshold value (Yes in step S14), the process proceeds to step S15. If not (No in step S14), the process of the flowchart is terminated.

ステップS15において、共有判定部107は、現時点の状態、つまり、子供の状態が「泣き」又は「ぐずり」であり、かつ、母親の感情に基づく第一指標が閾値以上である状態が直近の60秒間継続しているか否かを判定する。現時点の状態が直近の60秒間継続している場合(ステップS15でYes)には、ステップS16に進み、そうでない場合(ステップS15でNo)には、本フロー図の処理を終了する。   In step S15, the sharing determination unit 107 determines that the current state, that is, the state of the child is “crying” or “guzuri”, and the state in which the first index based on the emotion of the mother is equal to or greater than the threshold is the latest 60. It is determined whether it continues for 2 seconds. If the current state continues for the last 60 seconds (Yes in step S15), the process proceeds to step S16. If not (No in step S15), the process of this flowchart is terminated.

ステップS16において、生成部108は、ステップS13で共有判定部107により算出された第一指標に基づいて通知を生成する。生成される通知は、上記のとおり、通知の宛先に応じて異なる表現又は内容を含んでもよい。   In step S16, the generation unit 108 generates a notification based on the first index calculated by the sharing determination unit 107 in step S13. As described above, the generated notification may include different expressions or contents depending on the destination of the notification.

ステップS17において、送信部109は、ステップS16で生成された通知を送信し、表示部110により表示する。ステップS17の処理を終えたら、本フロー図に示されている一連の処理を終了する。   In step S <b> 17, the transmission unit 109 transmits the notification generated in step S <b> 16 and displays it on the display unit 110. When the process of step S17 is finished, the series of processes shown in the flowchart is finished.

ステップS21において、共有判定部107は、ステップS11で取得した子供の状態が「笑い」又は「喃語」であるか否かを判定する。子供の状態が「笑い」又は「喃語」である場合(ステップS21でYes)には、ステップS22に進み、そうでない場合(ステップS21でNo)には、本フロー図の処理を終了する。   In step S <b> 21, the sharing determination unit 107 determines whether or not the child state acquired in step S <b> 11 is “laughter” or “gogo”. If the child's state is “laughter” or “Language” (Yes in step S21), the process proceeds to step S22. If not (No in step S21), the process of this flowchart is terminated.

ステップS22において、共有判定部107は、ステップS11で取得した母親の状態に基づいて上記(式2)を用いて第二指標を算出する。   In step S22, the sharing determination unit 107 calculates the second index using the above (Equation 2) based on the mother's state acquired in step S11.

ステップS23において、共有判定部107は、算出した第二指標が閾値以上であるか否かを判定する。第二指標が閾値以上である場合(ステップS23でYes)には、ステップS24に進み、そうでない場合(ステップS23でNo)には、本フロー図の処理を終了する。   In step S23, the sharing determination unit 107 determines whether or not the calculated second index is equal to or greater than a threshold value. If the second index is greater than or equal to the threshold value (Yes in step S23), the process proceeds to step S24. If not (No in step S23), the process of this flowchart is terminated.

ステップS24において、共有判定部107は、現時点の状態、つまり、子供の状態が「笑い」又は「喃語」であり、かつ、母親の感情に基づく第二指標が閾値以上である状態が直近の60秒間継続しているか否かを判定する。現時点の状態が直近の60秒間継続している場合(ステップS24でYes)には、ステップS25に進み、そうでない場合(ステップS24でNo)には、本フロー図の処理を終了する。   In step S24, the sharing determination unit 107 determines that the current state, that is, the state of the child is “laughter” or “Language”, and the state in which the second index based on the emotion of the mother is equal to or greater than the threshold is the latest 60. It is determined whether it continues for 2 seconds. If the current state continues for the last 60 seconds (Yes in step S24), the process proceeds to step S25. If not (No in step S24), the process of this flowchart is terminated.

ステップS25において、生成部108は、ステップS22で共有判定部107により算出された第二指標に基づいて通知を生成する。生成される通知は、上記のとおり、通知の宛先に応じて異なる表現又は内容を含んでもよい。ステップS25を終えたら、ステップS17に進む。   In step S25, the generation unit 108 generates a notification based on the second index calculated by the sharing determination unit 107 in step S22. As described above, the generated notification may include different expressions or contents depending on the destination of the notification. When step S25 is completed, the process proceeds to step S17.

このように、ステップS16及びS25において、生成部108は、子供の状態、および、母親の状態と、母親の状態についての通知の宛先とに応じて、通知を生成する。これにより、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する。   As described above, in steps S16 and S25, the generation unit 108 generates a notification according to the state of the child, the state of the mother, and the destination of the notification about the state of the mother. This helps to further deepen the understanding of other child-care workers about the situation where children and child-caregivers are spending time together.

具体例を示しながらさらに具体的に説明する。   This will be described more specifically with a specific example.

上記ステップS11において共有判定部107が、子供の状態として「ぐずり」を、母親の状態として「怒り:8」、「困惑:8」、「ストレス:9」、「幸福感:1」を取得したとする。この場合、子供の状態が「ぐずり」であり(ステップS12でYes)、第一指標が以下の(式3)から24と算出され(ステップS13)、閾値15を超えている。   In step S <b> 11, the sharing determination unit 107 acquires “Gurzuri” as the child state and “Anger: 8”, “Confusion: 8”, “Stress: 9”, and “Happiness: 1” as the mother state. And In this case, the child's condition is “Gizuri” (Yes in Step S12), and the first index is calculated as 24 from the following (Equation 3) (Step S13), which exceeds the threshold 15.

第一指標=8+9+8―1=24 (式3)   First index = 8 + 9 + 8−1 = 24 (Formula 3)

また、子供の状態が「ぐずり」であり、かつ、第一指標が閾値を超えている状態が60秒以上継続しているので(ステップS14でYes)、生成部108が第一指標に基づいて通知を生成する(ステップS16)。   In addition, since the state where the child is “guzuri” and the first index exceeds the threshold value continues for 60 seconds or more (Yes in step S14), the generation unit 108 is based on the first index. A notification is generated (step S16).

次に、生成部108は、通知の宛先(具体的には、子供の父親と、子供の母方の祖父母)ごとに、通知のための画像を生成する(ステップS16)。例えば、生成部108は、父親に送付する画像として、子供と母親との状態を時系列で示すグラフ上に猫の手のイラストを付与した画像を生成する。また、生成部108は、母方の祖父母に送付する画像として、子供の母親が発したような「めっちゃ大変」というメッセージを含む画像を生成する。生成部108は、生成した画像を送信部109を経由して、表示部110へ提供する(ステップS17)。   Next, the generation unit 108 generates an image for notification for each notification destination (specifically, the child's father and the child's maternal grandparent) (step S16). For example, the generation unit 108 generates, as an image to be sent to the father, an image in which an illustration of a cat's hand is given on a graph showing the state of the child and the mother in time series. In addition, the generation unit 108 generates an image including a “very hard” message issued by the child's mother as an image to be sent to the maternal grandparents. The generation unit 108 provides the generated image to the display unit 110 via the transmission unit 109 (step S17).

以上の一連の処理により情報処理システム1が提示する画像について説明する。   An image presented by the information processing system 1 by the series of processes described above will be described.

図7は、本実施の形態における情報処理システム1が提示する画像の第一例を示す説明図である。   FIG. 7 is an explanatory diagram illustrating a first example of an image presented by the information processing system 1 according to the present embodiment.

図7の(a)に示される表示端末30の表示部110は、子供と母親との状態を時系列で示すグラフとともに、母親の状態を示す、猫の手のイラスト40が付された画像を表示している。このグラフは、より具体的には、子供と母親との状態の一例としての、子供と母親が発する音声の頻度を縦軸に示し、時間経過を横軸に示したものである。なお、音声の頻度の代わりに、音声の強度が用いられてもよい。   The display unit 110 of the display terminal 30 shown in FIG. 7A displays an image with a cat hand illustration 40 showing the mother's state together with a graph showing the state of the child and the mother in time series. it's shown. More specifically, this graph shows, as an example of the state of the child and the mother, the frequency of voices uttered by the child and the mother on the vertical axis and the passage of time on the horizontal axis. Note that the strength of the voice may be used instead of the voice frequency.

これより、父親は、従来技術では把握できない育児の状況を、定量情報とともに把握することができる。そして、母親は、育児の状況を父親又は関係者と共有することができる。それに加えて、情報処理システム1は、日々の育児及び家事における、母親にとって負荷が極めて高いタイミング、または、母親にとっての幸福なタイミングと、その事象とを父親又は関係者に通知する。これにより、父親又は関係者にとってその情報に対する興味を湧かせ、育児に対する理解がより一層深まり、さらには家庭生活の充実につなげることができる。   As a result, the father can grasp the status of childcare that cannot be grasped by the conventional technique, together with quantitative information. Then, the mother can share the status of childcare with the father or related parties. In addition, the information processing system 1 notifies the father or related parties of the timing when the burden on the mother is extremely high or the happiness timing for the mother and the event in daily childcare and housework. As a result, it is possible to raise interest in the information for the father or the related person, to deepen the understanding of childcare, and to further enhance the family life.

このように育児及び家事に関する情報を共有することが、家庭においてその後の育児サポートが円滑に行われるための大きな一歩になることは言うまでもない。また、父親における意識の変革や所謂「イクメン」の精神の醸成にもつながる。   It goes without saying that sharing information on childcare and housework in this way is a big step for smooth support for childcare at home. It also leads to a change in consciousness in the father and a so-called “Ikumen” spirit.

なお、生成部108が通知の宛先によって異なる画像を生成することで、通知の宛先ごとに適した形式で通知を行うことができ、通知の宛先の者によるより一層の理解を得ることができる。   The generation unit 108 generates an image that differs depending on the notification destination, so that notification can be performed in a format suitable for each notification destination, and further understanding by the notification destination can be obtained.

なお、通知の形式は、上記のように、子供と母親との状態を時系列で示すグラフとともに母親の状態を示す画像を示すものに限定されない。例えば、図7の(b)に示されるように、表示端末30上での短文の通知、例えばスマートフォンのロック画面におけるいわゆるプッシュ通知41であってもよい。   Note that, as described above, the notification format is not limited to that showing an image showing the mother's state together with the graph showing the state of the child and the mother in time series. For example, as shown in FIG. 7B, a short text notification on the display terminal 30, for example, a so-called push notification 41 on a lock screen of a smartphone may be used.

なお、通知に含まれる画像には、母親が入力した文字列が付されていてもよい。このことについて図8を参照しながら具体的に説明する。   In addition, the character string which the mother input may be attached | subjected to the image contained in notification. This will be specifically described with reference to FIG.

図8は、本実施の形態における情報処理システム1が提示する画像の第二例を示す説明図である。   FIG. 8 is an explanatory diagram illustrating a second example of an image presented by the information processing system 1 according to the present embodiment.

図8の(a)は、上記グラフとともに、母親の状態を示す文字列を含む画像42を示している。画像42は、母親から受け付けた文字列「またもや起こされた」を含む画像である。これにより、母親が自身で入力した情報が父親又は関係者に共有され得る。   FIG. 8A shows an image 42 including a character string indicating the state of the mother together with the graph. The image 42 is an image including the character string “again woken up” received from the mother. Thereby, the information input by the mother himself / herself can be shared with the father or the person concerned.

さらにこの場合、母親から受け付けた文字列を、子供が発した形式の情報又は子供の状態を示す情報に変換することで、通知を生成してもよい。例えば、上記の文字列「またもや起こされた」を子供が発した形式の情報「またママをおこしちゃったの」に変換した画像43を含む通知を生成してもよい(図8の(b))。このとき、変換前の情報と変換後の情報とは、ともに母親の状態を表現したものであるので、表現方式が異なるものの、意図は概ね維持される。母親の状態を母親が表現する言葉よりも、その母親の状態を、子供が発したかのような言葉で表現する方が、父親又は関係者に、より適切に共有され得る可能性があるからである。これにより、状態を表す情報を、子供が発したかのような情報に変換して宛先である他の育児者に送信することで、他の育児者の理解をより一層深めることに貢献し得る。なお、さらに子供のイラスト44を付すことで、その言葉を子供が発した雰囲気を強調することもできる。   Further, in this case, the notification may be generated by converting the character string received from the mother into information in a form issued by the child or information indicating the state of the child. For example, a notification including the image 43 obtained by converting the above-mentioned character string “Wake up again” into information “Mama has been woken up” in a form issued by the child may be generated (FIG. 8B). ). At this time, the information before the conversion and the information after the conversion both express the state of the mother, so the intention is generally maintained although the expression methods are different. Rather than expressing the mother's condition in terms of the mother's expression, expressing the mother's condition in words as if the child originated may be more appropriately shared with the father or other parties. It is. As a result, it is possible to contribute to further deepening the understanding of other childcare persons by converting the information indicating the state into information as if the child originated and transmitting it to the other childcare person who is the destination. . Furthermore, by adding a child's illustration 44, it is possible to emphasize the atmosphere that the child has spoken.

なお、母親状態判定部104による母親の状態の判定について、ここでは母親の音声のみに基づいて状態を判定したが、調理家電、例えばIHクッキングヒーターのON/OFF音、又は、流し台における流水音の有無などを検知して母親の状態の判定に用いてもよい。また、調理家電などの機器から直接にステータス情報を入手して用いてもよい。さらには、家電機器に搭載されているセンサの情報、例えば、温度、湿度、また人行動を検知して母親状態の分析に用いてもよい。   In addition, about the determination of the state of the mother by the mother state determination unit 104, the state is determined here based only on the mother's voice, but the presence / absence of the ON / OFF sound of the cooking appliance, for example, the IH cooking heater, or the running water sound in the sink Or the like may be detected to determine the mother's condition. Moreover, you may acquire and use status information directly from apparatuses, such as a cooking household appliance. Furthermore, information on sensors mounted on home appliances, for example, temperature, humidity, and human behavior may be detected and used to analyze the mother's condition.

以上のように本実施の形態の情報処理システムは、子供と大人の状態とに応じて生成される通知を宛先に送信する。また、通知は、通知の宛先に応じて生成される。大人がその子供の育児者(例えば母親)であり、通知の宛先が、その子供の他の育児者(例えば父親又は祖父母)である場合、子供と母親の状態を示す通知が、その宛先(つまり父親であるのか、又は、祖父母であるのか等)に応じて生成され送信される。宛先に応じて生成された情報が通知されるので、宛先である他の育児者の理解が得られやすい。よって、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援することができる。   As described above, the information processing system according to the present embodiment transmits a notification generated according to the state of the child and the adult to the destination. The notification is generated according to the notification destination. If the adult is the child's parent (e.g., mother) and the notification is addressed to the child's other child (e.g., father or grandparent), a notification that indicates the status of the child and mother is Whether it is a father or a grandparent). Since the information generated in accordance with the destination is notified, it is easy to obtain the understanding of other childcare persons who are the destination. Therefore, it can support further deepening the understanding of other child-care workers about the situation where the child and the child-care worker spend together.

(実施の形態2)
本実施の形態において、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法などについて説明する。本実施の形態の情報処理方法は、子供と育児者(母親)との音声に加えて、さらに環境音に基づいて、子供と育児者とが共に過ごしている状況を判定し、他の育児者の理解をより一層深めることを支援する。
(Embodiment 2)
In the present embodiment, an information processing method and the like for assisting in further deepening the understanding of other child-care workers regarding the situation where the child and the child-care worker spend together will be described. The information processing method according to the present embodiment determines the situation in which the child and the child-care worker are spending together based on the environmental sound in addition to the sound of the child and the child-care worker (mother). To deepen the understanding of

図9は、本実施の形態における情報処理システム2の機能を示すブロック図である。   FIG. 9 is a block diagram showing functions of the information processing system 2 in the present embodiment.

図9に示されるように、情報処理システム2は、入力部101と、識別部102Aと、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107Aと、生成部108と、送信部109と、表示部110と、環境音判定部112と、保持部113とを備える。   As shown in FIG. 9, the information processing system 2 includes an input unit 101, an identification unit 102A, a child state determination unit 103, a mother state determination unit 104, holding units 105 and 106, and a sharing determination unit 107A. A generation unit 108, a transmission unit 109, a display unit 110, an environmental sound determination unit 112, and a holding unit 113.

ここで、情報処理システム2の機能ブロックのうち、識別部102Aと、環境音判定部112と、保持部113とを除く機能ブロックは、実施の形態1におけるものと同じであるので詳細な説明を省略する。また、サーバ20Aは、実施の形態1におけるサーバ20に相当する。   Here, among the functional blocks of the information processing system 2, the functional blocks excluding the identification unit 102 </ b> A, the environmental sound determination unit 112, and the holding unit 113 are the same as those in the first embodiment, and thus detailed description will be given. Omitted. The server 20A corresponds to the server 20 in the first embodiment.

識別部102Aは、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、母親の音声、および環境音を識別する。ここで、識別部102Aが、環境音を識別する点で識別部102と異なる。環境音とは、入力部101が収音装置により収音した周囲の音のうち、子供の音声と母親の音声とを除く音である。環境音は、具体的には、家電(例えばIHクッキングヒーター、電子レンジ、洗濯機又は玩具)の操作音及び動作音、家事に伴って生じる音(例えばキッチンのシンクの流水音、ドアの開閉音、包丁で物を切るときに生ずる音)、家事ではない動作に伴って生じる音(例えば楽器が発する音、手をたたく音、踊り又は歩行などにより生ずる足音)などを含む。   The identification unit 102A acquires sound information from the input unit 101, and identifies a child's voice, mother's voice, and environmental sound included in the sound indicated by the acquired sound information. Here, the identification unit 102A is different from the identification unit 102 in that the environmental sound is identified. The environmental sound is a sound excluding the child's voice and the mother's voice among the surrounding sounds picked up by the input unit 101 by the sound pickup device. Specifically, the environmental sounds include operation sounds and operation sounds of home appliances (for example, IH cooking heater, microwave oven, washing machine or toy), sounds generated by housework (for example, running sound of kitchen sink, door opening / closing sound, Sound generated when cutting an object with a kitchen knife), sound generated by a non-housework operation (for example, a sound emitted by a musical instrument, a clapping sound, a footstep sound generated by dancing or walking), and the like.

環境音判定部112は、識別部102Aにより識別された環境音を分析することで、環境に関する状態を判定する処理部である。   The environmental sound determination unit 112 is a processing unit that determines a state related to the environment by analyzing the environmental sound identified by the identification unit 102A.

保持部113は、環境音判定部112により判定された、環境に関する状態を一時的に、又は、恒久的に保持する記憶装置である。   The holding unit 113 is a storage device that temporarily or permanently holds the environment-related state determined by the environmental sound determination unit 112.

共有判定部107Aは、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態と、保持部113に保持されている環境に関する状態とに基づいて、これらの状態を示す情報を予め登録されている宛先(例えば父親又は祖父母)と共有すべきか否かを判定する処理部である。より具体的には、共有判定部107Aは、環境に関する状態から、母親が家事をしているか、又は、子供と遊戯をしているかを判定する。   Based on the state of the child held in the holding unit 105, the state of the mother held in the holding unit 106, and the state related to the environment held in the holding unit 113, the sharing determination unit 107A It is a processing unit that determines whether or not information indicating a state should be shared with a destination (for example, a father or a grandparent) registered in advance. More specifically, the sharing determination unit 107A determines whether the mother is doing housework or playing with a child from the state regarding the environment.

図10は、本実施の形態における共有判定部107Aが判定に用いる条件を示すテーブルT3の説明図である。テーブルT3には、共有判定部107Aが判定に用いる条件の例である第一条件及び第二条件が示されている。   FIG. 10 is an explanatory diagram of a table T3 indicating conditions used for determination by the sharing determination unit 107A in the present embodiment. The table T3 shows the first condition and the second condition, which are examples of conditions used by the sharing determination unit 107A for determination.

共有判定部107Aは、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態と、保持部113に保持されている環境に関する状態とに基づいて、第一条件及び第二条件が満たされるか否かを判定する。   Based on the state of the child held in the holding unit 105, the state of the mother held in the holding unit 106, and the state related to the environment held in the holding unit 113, the sharing determination unit 107A It is determined whether the condition and the second condition are satisfied.

(1)第一条件について
第一条件は、実施の形態1の第一条件に加えて、環境に関する状態に基づく条件がさらに考慮される。具体的には、第一条件は、保持部105に格納された子供の状態が「泣き」または「ぐずり」である場合に、母親の感情に基づいて算出される第一指標が閾値以上である、又は、母親が家事をしていること、とすることができる。
(1) About the first condition In addition to the first condition of the first embodiment, the first condition further considers a condition based on the state regarding the environment. Specifically, the first condition is that when the child state stored in the holding unit 105 is “crying” or “guzuri”, the first index calculated based on the emotion of the mother is equal to or greater than a threshold value. Or, the mother can do the housework.

子供が泣いたりぐずったりしている時に、母親が家事をしている場合、母親の感情に関わらず、父親又は祖父母による育児若しくは家事の助け、又は、心理面での支えが必要であるので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。   If the mother is doing housework when the child is crying or swaying, regardless of the mother's feelings, childcare or housework assistance by the father or grandparents, or psychological support, is necessary. This is because it can be said that information indicating these states should be shared with the father or grandparents.

(2)第二条件について
第二条件は、実施の形態1の第二条件に加えて、環境に関する状態に基づく条件がさらに考慮される。具体的には、第二条件は、保持部105に格納された子供の状態が「笑い」または「喃語」である場合に、母親の感情に基づいて算出される第二指標が閾値以上である、又は、母親と子供とが共に遊戯をしていること、とすることができる。
(2) Second condition As for the second condition, in addition to the second condition of the first embodiment, a condition based on the state regarding the environment is further considered. Specifically, the second condition is that the second index calculated based on the emotions of the mother is equal to or greater than a threshold when the child state stored in the holding unit 105 is “laughter” or “Language”. Or, the mother and the child can play together.

子供が笑ったり喃語を発したりしている時に、母親と子供とが共に遊戯中である場合、母親の感情に関わらず、父親又は祖父母にも幸福感などのポジティブな感情を抱かせるのが望ましいので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。   When a child laughs or speaks a language, if the mother and the child are playing together, it is desirable that the father or grandparents have positive feelings such as happiness regardless of the mother's feelings. Therefore, it can be said that information indicating these states should be shared with the father or grandparents.

以上のように構成された情報処理システム2について、その処理の流れを図面を用いて説明する。   The information processing system 2 configured as described above will be described with reference to the drawings.

図11は、本実施の形態における識別部102A、子供状態判定部103、母親状態判定部104及び環境音判定部112が実行する処理の流れを示すフロー図である。   FIG. 11 is a flowchart showing a flow of processing executed by the identification unit 102A, the child state determination unit 103, the mother state determination unit 104, and the environmental sound determination unit 112 in the present embodiment.

なお、子供状態判定部103及び母親状態判定部104が実行する処理(ステップS2からS5)は、実施の形態1におけるものと同じであるので詳細な説明を省略する。   In addition, since the process (step S2 to S5) which the child state determination part 103 and the mother state determination part 104 perform is the same as that in Embodiment 1, detailed description is abbreviate | omitted.

ステップS1Aにおいて、識別部102Aは、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、母親の音声、および、環境音を識別する。   In step S1A, the identification unit 102A acquires sound information from the input unit 101, and identifies a child's voice, mother's voice, and environmental sound included in the sound indicated by the acquired sound information.

ステップS2からS5において、子供状態判定部103が判定した子供の状態が保持部105に格納され、母親状態判定部104が判定した母親の状態が保持部106に格納される(詳細は実施の形態1を参照)。   In steps S2 to S5, the child state determined by the child state determination unit 103 is stored in the holding unit 105, and the mother state determined by the mother state determination unit 104 is stored in the holding unit 106 (details are given in the embodiment). 1).

ステップS6において、識別部102Aは、ステップS1で環境音が識別されたか否かを判定する。環境音が識別されたと判定した場合(ステップS6でYes)にはステップS7に進み、そうでない場合(ステップS6でNo)には、本フロー図に示された一連の処理を終了する。   In step S6, the identification unit 102A determines whether an environmental sound has been identified in step S1. If it is determined that the environmental sound has been identified (Yes in step S6), the process proceeds to step S7. If not (No in step S6), the series of processes shown in the flowchart is terminated.

ステップS7において、環境音判定部112は、ステップS1で識別した環境音の音声に基づいて環境の状態を判定し、判定した環境の状態を保持部113に格納する。具体例では、ステップS1で識別した環境音である、IHクッキングヒーターの操作音に基づいて、家事がなされていると判定し、その判定結果を保持部113に格納する。   In step S7, the environmental sound determination unit 112 determines the environmental state based on the sound of the environmental sound identified in step S1, and stores the determined environmental state in the holding unit 113. In the specific example, based on the operation sound of the IH cooking heater, which is the environmental sound identified in step S <b> 1, it is determined that housework is being performed, and the determination result is stored in the holding unit 113.

本フロー図に示された一連の処理が終了したら、共有判定部107Aが、子供の状態と、母親の状態と、環境に関する状態とに基づいて、これらの状態を示す情報を父親又は祖父母と共有すべき度合いを示す指標を算出する。この処理は、図6に示される処理と同様であるが、ステップS14及びステップS23の処理のみが異なる。具体的には、ステップS14の判定の条件を、「第一指標が閾値以上である、又は、母親が家事をしている?」とする。また、ステップS23の判定の条件を、「第二指標が閾値以上である、又は、母親が遊戯をしている?」とする。   When the series of processes shown in the flowchart is completed, the sharing determination unit 107A shares information indicating these states with the father or grandparents based on the child state, the mother state, and the state regarding the environment. An index indicating the degree to be calculated is calculated. This process is the same as the process shown in FIG. 6, but only the processes in steps S14 and S23 are different. Specifically, the determination condition in step S14 is “Is the first index greater than or equal to a threshold value, or is the mother doing housework?”. Further, the determination condition in step S23 is “Is the second index greater than or equal to the threshold value, or is the mother playing?”.

このように、情報処理システム2は、子供の音声および大人の音声を識別する際には、子供の音声、大人の音声、および、環境音を識別し、大人の状態を判定する際には、識別された大人の音声、および、環境音に基づいて、大人の状態を判定してもよい。   As described above, the information processing system 2 identifies the child's voice, the adult's voice, and the environmental sound when identifying the child's voice and the adult's voice, and determines the adult's state. The adult state may be determined based on the identified adult voice and environmental sound.

このようにすることで、情報処理システム2は、子供と母親との音声に加えて、さらに環境音に基づいて、子供と育児者とが共に過ごしている状況を判定し、他の育児者の理解をより一層深めることを支援する。   By doing in this way, the information processing system 2 determines the situation where the child and the childcare person are spending together based on the environmental sound in addition to the sound of the child and the mother, Support deeper understanding.

なお、共有判定部107Aが判定に用いる条件の別の例についてさらに説明する。   Note that another example of conditions used for determination by the sharing determination unit 107A will be further described.

図12は、本実施の形態における共有判定部107Aが判定に用いる別の条件を示すテーブルT4の説明図である。図12に示されるテーブルT4は、図10に示されるテーブルT3の代わりに用いられてもよいし、テーブルT3とともに用いられてもよい。   FIG. 12 is an explanatory diagram of a table T4 showing another condition used for determination by the sharing determination unit 107A in the present embodiment. The table T4 shown in FIG. 12 may be used instead of the table T3 shown in FIG. 10, or may be used together with the table T3.

(1)第一条件について
第一条件は、実施の形態1の第一条件に加えて、人(つまり子供又は母親)の動作に基づく条件がさらに考慮される。具体的には、第一条件は、保持部105に格納された子供の状態が「泣き」または「ぐずり」である場合に、母親の感情に基づいて算出される第一指標が閾値以上である、又は、人の動作がイレギュラーな動作であること、とすることができる。ここで、人のイレギュラーな動作は、走り回っている、せわしなく動いている又は大声を伴う動きなどのネガティブな事象に起因する動作であることが想定される。
(1) About the first condition In addition to the first condition of the first embodiment, the first condition further considers a condition based on the action of a person (that is, a child or a mother). Specifically, the first condition is that when the child state stored in the holding unit 105 is “crying” or “guzuri”, the first index calculated based on the emotion of the mother is equal to or greater than a threshold value. Alternatively, the human motion may be an irregular motion. Here, it is assumed that an irregular motion of a person is a motion caused by a negative event such as running around, moving in a busy manner, or moving loudly.

子供が泣いたりぐずったりしているときに、母親がイレギュラーな動作をしている場合、母親の感情に関わらず、父親又は祖父母による育児若しくは家事の助け、又は、心理面での支えが必要であるので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。   When a child is crying or wandering, if the mother behaves irregularly, the father or grandparents need help with childcare or housework, or psychological support, regardless of the mother's feelings Therefore, it can be said that information indicating these states should be shared with the father or grandparents.

(2)第二条件について
第二条件は、実施の形態1の第二条件に加えて、人(つまり子供又は母親)の動作に基づく条件がさらに考慮される。具体的には、第二条件は、保持部105に格納された子供の状態が「笑い」または「喃語」である場合に、母親の感情に基づいて算出される第二指標が閾値以上である、又は、人の動作がイレギュラーな動作であること、とすることができる。ここで、人のイレギュラーな動作は、上記(1)におけるイレギュラーな動作と異なり、両手を挙げている(高い高い)、遅い速度で継続的に移動している(追いかけっこ)、上下運動をしている(いないいないばあ)などのポジティブな事象に起因する動作であることが想定される。
(2) Second condition In addition to the second condition of the first embodiment, the second condition further considers a condition based on the action of a person (that is, a child or a mother). Specifically, the second condition is that the second index calculated based on the emotions of the mother is equal to or greater than a threshold when the child state stored in the holding unit 105 is “laughter” or “Language”. Alternatively, the human motion may be an irregular motion. Here, unlike the irregular movement in (1) above, the irregular movement of a person raises both hands (high and high), moves continuously at a slow speed (chasing), and moves up and down. It is assumed that the action is caused by a positive event such as (if not).

子供が笑ったり喃語を発したりしているときに、母親と子供とが共に遊戯中である場合、母親の感情に関わらず、父親又は祖父母にも幸福感などのポジティブな感情を抱かせるのが望ましいので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。   When a child laughs or speaks a language, if the mother and the child are playing together, regardless of the mother's feelings, the father or grandparents can have positive feelings such as happiness. This is because it can be said that information indicating these states should be shared with the father or grandparents.

このように、情報処理システム2は、さらに、大人の身体を検知するセンサによる検知結果を取得し、大人の状態を判定する際には、識別された大人の音声、および、上記検知結果に基づいて、大人の状態を判定してもよい。   As described above, the information processing system 2 further acquires a detection result by the sensor that detects the adult body, and determines the adult state based on the identified adult voice and the detection result. The adult state may be determined.

以上のように、本実施の形態に係る情報処理方法によれば、大人の状態を判定するためにさらに環境音が用いられる。そして、さらに環境音に基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。   As described above, according to the information processing method according to the present embodiment, the environmental sound is further used to determine the adult state. Further, a notification is generated and transmitted according to the adult state determined based on the environmental sound. Thereby, an adult's state can be determined in detail, and notification is generated and transmitted based on this detailed determination.

また、大人の状態を判定するためにさらにセンサが用いられる。そして、さらにセンサに基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。   Sensors are also used to determine adult status. Further, a notification is generated and transmitted according to the adult state determined based on the sensor. Thereby, an adult's state can be determined in detail, and notification is generated and transmitted based on this detailed determination.

(実施の形態3)
本実施の形態において、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法などについて説明する。本実施の形態の情報処理方法では、通知の宛先に係る人がより確認しやすいタイミングに通知を行うことで、通知を認識する確実性を向上させる、言い換えれば、伝え漏れを防ぐことができる。
(Embodiment 3)
In the present embodiment, an information processing method and the like for assisting in further deepening the understanding of other child-care workers regarding the situation where the child and the child-care worker spend together will be described. In the information processing method according to the present embodiment, notification is performed at a timing at which it is easier for a person related to the notification destination to confirm, so that the certainty of recognizing the notification is improved, in other words, communication failure can be prevented.

図13は、本実施の形態における情報処理システム3の機能を示すブロック図である。   FIG. 13 is a block diagram illustrating functions of the information processing system 3 in the present embodiment.

図13に示されるように、情報処理システム3は、入力部101と、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108と、送信部109Aと、表示部110と、位置取得部115とを備える。   As illustrated in FIG. 13, the information processing system 3 includes an input unit 101, an identification unit 102, a child state determination unit 103, a mother state determination unit 104, holding units 105 and 106, a sharing determination unit 107, , Generation unit 108, transmission unit 109A, display unit 110, and position acquisition unit 115.

位置取得部115は、通知の宛先の位置を示す位置情報を取得する処理部である。位置取得部115は、具体的には、通知の宛先の者が携帯している携帯端末32の位置情報を取得する位置センサである。位置取得部115は、例えば、鉄道会社の改札機のシステムから、携帯端末32の保有者、つまり、子供の父親が、所定の駅の改札機を通過したことを示す情報を受信すると、子供の父親が当該改札機の地点の近傍の位置を示す位置情報を生成する。携帯端末32は、例えば、改札機と近接無線通信をするスマートフォン又は携帯電話、若しくは、非接触型ICカード等である。なお、位置取得部115は、携帯端末32の位置情報を取得できるものであれば、他の手段であってもよい。位置取得部115は、例えば、携帯端末32に搭載されたGPS(Global Positioning System)受信器から、携帯端末32の位置を取得してもよい。なお、携帯端末32は、表示端末30と同一の端末であってもよい。また、改札機との通信の代わりに、バスの運賃支払い機などの乗り物を利用する際に用いられる通信機(乗降記録機ともいう)との通信が利用されてもよい。   The position acquisition unit 115 is a processing unit that acquires position information indicating the position of the notification destination. Specifically, the position acquisition unit 115 is a position sensor that acquires position information of the mobile terminal 32 carried by the person who is the notification destination. For example, when the position acquisition unit 115 receives information indicating that the owner of the mobile terminal 32, that is, the child's father has passed the ticket gate at a predetermined station, from the ticket company system of the railway company, The father generates position information indicating a position in the vicinity of the ticket gate. The mobile terminal 32 is, for example, a smartphone or a mobile phone that performs close proximity wireless communication with a ticket gate, or a non-contact IC card. The position acquisition unit 115 may be other means as long as the position information of the mobile terminal 32 can be acquired. The position acquisition unit 115 may acquire the position of the mobile terminal 32 from a GPS (Global Positioning System) receiver mounted on the mobile terminal 32, for example. Note that the mobile terminal 32 may be the same terminal as the display terminal 30. Further, instead of communication with the ticket gate, communication with a communication device (also referred to as a boarding / alighting recorder) used when using a vehicle such as a bus fare payment machine may be used.

送信部109Aは、生成部108が生成した情報の送信タイミング、及び、情報の通知の態様を、位置取得部115が取得した位置情報に応じて制御する。具体的には、送信部109Aは、位置取得部115が取得した位置情報を参照して、宛先が所定の位置に位置していることに応じて通知を宛先へ送信する。例えば、乗り物の乗降記録機の位置情報が既知である場合に、送信部109Aは、宛先に係る人が携帯する端末による近接無線通信を用いて乗降記録機と通信したことに応じて通知を宛先へ送信する。より具体的には、宛先に係る人が携帯する端末による近接無線通信を用いて駅の改札を通過したタイミングに、通知を宛先へ送信する。   The transmission unit 109 </ b> A controls the transmission timing of the information generated by the generation unit 108 and the information notification mode according to the position information acquired by the position acquisition unit 115. Specifically, the transmission unit 109A refers to the position information acquired by the position acquisition unit 115, and transmits a notification to the destination in response to the destination being located at a predetermined position. For example, when the position information of the vehicle entry / exit recorder is known, the transmission unit 109A sends a notification in response to communication with the entry / exit recorder using proximity wireless communication by a terminal carried by the person involved in the destination. Send to. More specifically, the notification is transmitted to the destination at the timing when it passes the ticket gate of the station using the proximity wireless communication by the terminal carried by the person related to the destination.

図14は、本実施の形態における送信部109Aによる情報の送信タイミング、及び、情報の通知の態様を示す送信タイミングを示すテーブルT5の説明図である。   FIG. 14 is an explanatory diagram of a table T5 indicating the transmission timing of information by the transmission unit 109A and the transmission timing indicating the information notification mode in the present embodiment.

図14に示されるように、テーブルT5は、時間帯51と、位置52と、通知の態様53との情報を、各エントリについて示す。各エントリは、時間帯と位置とが与えられる場合に、父親が保有する表示端末30にどのような態様で通知をするかを示している。   As shown in FIG. 14, the table T <b> 5 shows information about the time zone 51, the position 52, and the notification mode 53 for each entry. Each entry indicates how to notify the display terminal 30 owned by the father when the time zone and the position are given.

時間帯51は、表示端末30により通知を行う時間帯を示す情報である。時間帯51は、例えば、午前、午後、7時台、15時台のように時間帯を指定する。なお、時間帯の時間長はどのようなものであってもよく、数時間、数分であってもよい。   The time zone 51 is information indicating a time zone for which the display terminal 30 performs notification. The time zone 51 designates a time zone such as morning, afternoon, 7 o'clock or 15 o'clock. The time length of the time zone may be anything, and may be several hours or several minutes.

位置52は、表示端末30により通知を行うときの表示端末30の位置を示す情報である。位置52は、位置を一意に特定し得る情報であればどのような形式でもよく、一組の緯度及び経度、住所、目印となる建物の名称などである。   The position 52 is information indicating the position of the display terminal 30 when notification is made by the display terminal 30. The position 52 may be in any format as long as it can uniquely identify the position, and is a set of latitude and longitude, an address, a name of a building as a landmark, and the like.

通知の態様53は、表示端末30により通知を行う態様を示す情報である。例えば、通知の態様53は、「画像の更新」又は「プッシュ通知」がある。   The notification mode 53 is information indicating a mode in which notification is performed by the display terminal 30. For example, the notification mode 53 includes “image update” or “push notification”.

以上のように、本実施の形態に係る情報処理方法によれば、通知の宛先である他の育児者の位置に応じて通知を送信し得る。他の育児者が通知を確認しやすい状態において通知を送信することにより、他の育児者が通知を認識する確実性が向上し得る。   As described above, according to the information processing method according to the present embodiment, a notification can be transmitted according to the position of another childcare person who is the destination of the notification. By transmitting the notification in a state in which the other childcare person can easily confirm the notification, the certainty that the other childcare person can recognize the notification can be improved.

また、他の育児者が通知を確認しやすいタイミングとして、他の育児者が乗り物に乗降したことに応じて通知を送信する。これにより、他の育児者が通知を認識する確実性がより一層向上し得る。   In addition, as a timing when it is easy for other childcare personnel to confirm the notification, a notification is transmitted in response to another childcare worker getting on and off the vehicle. Thereby, the certainty that other child-care workers recognize the notification can be further improved.

なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の情報処理システムなどを実現するソフトウェアは、次のようなプログラムである。   In each of the above embodiments, each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component. Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory. Here, the software that realizes the information processing system of each of the above embodiments is a program as follows.

すなわち、このプログラムは、コンピュータに、プロセッサを用いて、収音装置による収音により得られる音情報を取得し、前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、識別された前記子供の音声に基づいて、前記子供の状態を判定し、識別された前記大人の音声に基づいて、前記大人の状態を判定し、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、生成された前記通知を前記宛先へ送信する、情報処理方法を実行させる。   That is, this program uses a processor to acquire sound information obtained by sound collection by a sound collection device, identifies a child's voice and an adult's voice included in the sound indicated by the sound information, Determining the state of the child based on the voice of the identified child; determining the state of the adult based on the voice of the adult identified; and determining the state of the child An information processing method is executed in which the notification is generated according to the adult state and a notification destination regarding the adult state, and the generated notification is transmitted to the destination.

以上、一つまたは複数の態様に係る情報処理システムなどについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。   As described above, the information processing system according to one or more aspects has been described based on the embodiment, but the present invention is not limited to this embodiment. Unless it deviates from the gist of the present invention, various modifications conceived by those skilled in the art have been made in this embodiment, and forms constructed by combining components in different embodiments are also within the scope of one or more aspects. May be included.

本発明は、子供(乳幼児)と育児者(例えば母親)における育児などの状況を、他の育児者(例えば父親)又は関係者(例えば祖父母)との間で共有する情報共有方法などとして有用である。   INDUSTRIAL APPLICABILITY The present invention is useful as an information sharing method for sharing a situation such as childcare in a child (infant) and a childcare person (for example, a mother) with another childcare person (for example, a father) or a related person (for example, a grandparent). is there.

1、2、3 情報処理システム
10 入力端末
20、20A サーバ
30 表示端末
32 携帯端末
40、44 イラスト
101 入力部
102、102A 識別部
103 子供状態判定部
104 母親状態判定部
105、106、113 保持部
107、107A 共有判定部
108 生成部
109、109A 送信部
110 表示部
112 環境音判定部
115 位置取得部
T1、T2、T3、T4、T5 テーブル
1, 2, 3 Information processing system 10 Input terminal 20, 20A Server 30 Display terminal 32 Portable terminal 40, 44 Illustration 101 Input unit 102, 102A Identification unit 103 Child state determination unit 104 Mother state determination unit 105, 106, 113 Holding unit 107, 107A Sharing determination unit 108 Generation unit 109, 109A Transmission unit 110 Display unit 112 Environmental sound determination unit 115 Position acquisition unit T1, T2, T3, T4, T5 table

Claims (14)

プロセッサを用いて、
収音装置による収音により得られる音情報を取得し、
前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、
識別された前記子供の音声に基づいて、前記子供の状態を判定し、
識別された前記大人の音声に基づいて、前記大人の状態を判定し、
判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、
生成された前記通知を前記宛先へ送信する、
情報処理方法。
Using a processor
Acquire sound information obtained by sound collection
Identifying a child's voice and an adult's voice included in the sound indicated by the sound information;
Determining the child's condition based on the identified child's voice;
Determining the status of the adult based on the identified voice of the adult;
Generating the notification according to the determined state of the child, the determined adult state, and a notification destination for the adult state;
Sending the generated notification to the destination;
Information processing method.
前記通知を生成することは、前記宛先に応じて異なる表現又は内容を有する前記通知を生成することを含む
請求項1に記載の情報処理方法。
The information processing method according to claim 1, wherein generating the notification includes generating the notification having a different expression or content depending on the destination.
前記通知を生成することは、前記宛先に応じて表現又は内容が異なる図柄又は文章であって前記大人の状態を示す図柄又は文章を含む前記通知を生成することを含む
請求項2に記載の情報処理方法。
The information according to claim 2, wherein generating the notification includes generating the notification including a pattern or a sentence that is different in expression or content depending on the destination and indicates the state of the adult. Processing method.
前記通知を生成することは、生成される前記通知が前記大人の状態を示す図柄又は文章を含むか含まないかが、前記宛先に応じて異なる、前記通知を生成することを含む
請求項2又は3に記載の情報処理方法。
The generation of the notification includes generating the notification in which whether the generated notification includes or does not include a graphic or a sentence indicating the adult state depends on the destination. Information processing method described in 1.
前記図柄又は前記文章の表現又は内容は、前記宛先の属性に応じて異なる
請求項3に記載の情報処理方法。
The information processing method according to claim 3, wherein expression or content of the symbol or the sentence varies depending on an attribute of the destination.
前記通知を生成することは、判定された前記子供の状態、および、判定された前記大人の状態の少なくとも一方に応じて指標を算出し、算出した前記指標が閾値より高い場合にのみ、前記通知を生成することを含む
請求項1〜5のいずれか1項に記載の情報処理方法。
Generating the notification calculates an index according to at least one of the determined state of the child and the determined state of the adult, and the notification is performed only when the calculated index is higher than a threshold value. The information processing method of any one of Claims 1-5 including producing | generating.
前記通知を生成することは、判定された前記子供の状態、および、判定された前記大人の状態の少なくとも一方に応じて指標を算出し、算出した前記指標が大きいほど、より大きな図柄を含む前記通知を生成することを含む
請求項1〜6のいずれか1項に記載の情報処理方法。
Generating the notification calculates an index according to at least one of the determined state of the child and the determined state of the adult, and the larger the calculated index, the larger the pattern The information processing method according to claim 1, further comprising generating a notification.
前記通知を生成することは、
前記大人の状態を示す情報を入力装置を介して受け付け、
受け付けた前記情報を、前記子供が発した形式の情報又は前記子供の状態を示す情報に変換することで、前記通知を生成することを含む
請求項1〜7のいずれか1項に記載の情報処理方法。
Generating the notification includes
Accepting information indicating the adult status via an input device,
The information according to any one of claims 1 to 7, further comprising: generating the notification by converting the received information into information in a form issued by the child or information indicating the state of the child. Processing method.
前記宛先は、判定された前記子供の状態、および、判定された前記大人の状態に応じて定められる
請求項1〜7のいずれか1項に記載の情報処理方法。
The information processing method according to claim 1, wherein the destination is determined according to the determined state of the child and the determined state of the adult.
さらに、前記音情報が示す音に含まれる環境音を識別し、
前記大人の状態を判定することは、
識別された前記大人の音声、および、前記環境音に基づいて、前記大人の状態を判定することを含む
請求項1〜9のいずれか1項に記載の情報処理方法。
Furthermore, the environmental sound included in the sound indicated by the sound information is identified,
Determining the adult status is
The information processing method according to claim 1, further comprising: determining a state of the adult based on the identified voice of the adult and the environmental sound.
前記情報処理方法では、さらに、人を検知するセンサによる検知結果を取得し、
前記大人の状態を判定することは、
識別された前記大人の音声、および、前記検知結果に基づいて、前記大人の状態を判定することを含む
請求項1〜10のいずれか1項に記載の情報処理方法。
In the information processing method, further, a detection result by a sensor for detecting a person is acquired,
Determining the adult status is
The information processing method according to claim 1, further comprising: determining a state of the adult based on the identified voice of the adult and the detection result.
前記情報処理方法では、さらに、前記宛先の位置を示す位置情報を取得し、
前記通知を前記宛先へ送信することは、
前記位置情報を参照して、前記宛先が所定の位置にいることに応じて前記通知を前記宛先へ送信することを含む
請求項1〜11のいずれか1項に記載の情報処理方法。
The information processing method further acquires position information indicating the position of the destination,
Sending the notification to the destination is
The information processing method according to any one of claims 1 to 11, further comprising: transmitting the notification to the destination in response to the destination being in a predetermined position with reference to the position information.
前記所定の位置は、乗り物に係る乗降記録機が設置されている位置であり、
前記宛先に係る人が携帯する端末による近接無線通信を用いて前記乗降記録機と通信したことに応じて、前記通知を前記宛先へ送信することを含む
請求項12に記載の情報処理方法。
The predetermined position is a position where a boarding / alighting recorder related to the vehicle is installed,
The information processing method according to claim 12, further comprising: transmitting the notification to the destination in response to communication with the boarding / exiting recorder using proximity wireless communication by a terminal carried by a person related to the destination.
収音装置による収音により得られる音情報が示す音に含まれる、子供の音声および大人の音声を識別する識別部と、
識別された前記子供の音声に基づいて、前記子供の状態を判定する子供状態判定部と、
識別された前記大人の音声に基づいて、前記大人の状態を判定する大人状態判定部と、
判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成する生成部と、
生成された前記通知を前記宛先へ送信する送信部とを備える
情報処理装置。
An identification unit for identifying a child's voice and an adult's voice included in the sound indicated by the sound information obtained by the sound collection by the sound collection device;
A child state determination unit for determining the state of the child based on the voice of the identified child;
An adult state determination unit for determining the adult state based on the identified adult voice;
A generating unit that generates the notification according to the determined state of the child, the determined adult state, and a destination of the notification about the adult state;
An information processing apparatus comprising: a transmission unit that transmits the generated notification to the destination.
JP2017124806A 2017-06-27 2017-06-27 Information processing method and information processing device Active JP6861398B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017124806A JP6861398B2 (en) 2017-06-27 2017-06-27 Information processing method and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017124806A JP6861398B2 (en) 2017-06-27 2017-06-27 Information processing method and information processing device

Publications (2)

Publication Number Publication Date
JP2019009666A true JP2019009666A (en) 2019-01-17
JP6861398B2 JP6861398B2 (en) 2021-04-21

Family

ID=65029807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017124806A Active JP6861398B2 (en) 2017-06-27 2017-06-27 Information processing method and information processing device

Country Status (1)

Country Link
JP (1) JP6861398B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114954339A (en) * 2022-05-24 2022-08-30 中国第一汽车股份有限公司 Detection device and method for preventing children from being trapped in car based on voice recognition technology
WO2023286249A1 (en) * 2021-07-15 2023-01-19 日本電信電話株式会社 Communication assistance system, communication assistance method, and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001318856A (en) * 2000-05-08 2001-11-16 Com'app:Kk System and method for sharing information
JP2007004792A (en) * 2006-06-19 2007-01-11 Matsushita Electric Ind Co Ltd Optical output device and information processing terminal
JP2008250362A (en) * 2007-03-29 2008-10-16 Nec Corp Health condition management support system
JP2012038281A (en) * 2010-08-09 2012-02-23 First:Kk Twitter system for mothers raising children
KR101421217B1 (en) * 2013-11-18 2014-07-23 (주) 나무와 숲 Children's Emotion Managing Method using Correlation of Child Psychology and Parents Stress
JP2015184563A (en) * 2014-03-25 2015-10-22 シャープ株式会社 Interactive household electrical system, server device, interactive household electrical appliance, method for household electrical system to interact, and program for realizing the same by computer
CN106803219A (en) * 2017-01-18 2017-06-06 吉林大学 A kind of work and rest identification record method towards newborn care based on Intelligent foot ring

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001318856A (en) * 2000-05-08 2001-11-16 Com'app:Kk System and method for sharing information
JP2007004792A (en) * 2006-06-19 2007-01-11 Matsushita Electric Ind Co Ltd Optical output device and information processing terminal
JP2008250362A (en) * 2007-03-29 2008-10-16 Nec Corp Health condition management support system
JP2012038281A (en) * 2010-08-09 2012-02-23 First:Kk Twitter system for mothers raising children
KR101421217B1 (en) * 2013-11-18 2014-07-23 (주) 나무와 숲 Children's Emotion Managing Method using Correlation of Child Psychology and Parents Stress
JP2015184563A (en) * 2014-03-25 2015-10-22 シャープ株式会社 Interactive household electrical system, server device, interactive household electrical appliance, method for household electrical system to interact, and program for realizing the same by computer
CN106803219A (en) * 2017-01-18 2017-06-06 吉林大学 A kind of work and rest identification record method towards newborn care based on Intelligent foot ring

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"セレボ、乳児の声の感情を認識するスマートマイク「Listnr(リスナー)」発売」", IOT NEWS, JPN7021000509, 22 January 2016 (2016-01-22), ISSN: 0004445721 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023286249A1 (en) * 2021-07-15 2023-01-19 日本電信電話株式会社 Communication assistance system, communication assistance method, and program
CN114954339A (en) * 2022-05-24 2022-08-30 中国第一汽车股份有限公司 Detection device and method for preventing children from being trapped in car based on voice recognition technology

Also Published As

Publication number Publication date
JP6861398B2 (en) 2021-04-21

Similar Documents

Publication Publication Date Title
US11017765B2 (en) Intelligent assistant with intent-based information resolution
US10964336B2 (en) Systems for and methods of intelligent acoustic monitoring
US11100384B2 (en) Intelligent device user interactions
US9814993B2 (en) Interactive toy plaything having wireless communication of interaction-related information with remote entities
US20160321536A1 (en) Interface apparatus and method for providing interaction of a user with network entities
WO2016136062A1 (en) Information processing device, information processing method, and program
BR112015018905B1 (en) Voice activation feature operation method, computer readable storage media and electronic device
CN110719553B (en) Smart speaker system with cognitive sound analysis and response
US11823549B1 (en) Contextual response to motion-based event
JP2019009666A (en) Information processing method and information processing device
Myakala et al. A low cost intelligent smart system for real time infant monitoring and cry detection
KR101248323B1 (en) Method and Apparatus for providing Ubiquitous Smart Parenting and Customized Education Service, and Recording medium thereof
EP3776173A1 (en) Intelligent device user interactions
Myakala et al. An intelligent system for infant cry detection and information in real time
TWI795663B (en) personal assistant control system
JP6941593B2 (en) Control terminal, control method and control system
CN113539282A (en) Sound processing device, system and method
WO2018079018A1 (en) Information processing device and information processing method
US11749270B2 (en) Output apparatus, output method and non-transitory computer-readable recording medium
US10601757B2 (en) Multi-output mode communication support device, communication support method, and computer program product
JP2017107415A (en) Communication system
WO2020202444A1 (en) Physical condition detection system
CN112420078A (en) Monitoring method, device, storage medium and electronic equipment
CN114911346A (en) Interaction method and device for terminal equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210316

R151 Written notification of patent or utility model registration

Ref document number: 6861398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151