JP6861398B2 - 情報処理方法、及び、情報処理装置 - Google Patents

情報処理方法、及び、情報処理装置 Download PDF

Info

Publication number
JP6861398B2
JP6861398B2 JP2017124806A JP2017124806A JP6861398B2 JP 6861398 B2 JP6861398 B2 JP 6861398B2 JP 2017124806 A JP2017124806 A JP 2017124806A JP 2017124806 A JP2017124806 A JP 2017124806A JP 6861398 B2 JP6861398 B2 JP 6861398B2
Authority
JP
Japan
Prior art keywords
child
notification
adult
state
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017124806A
Other languages
English (en)
Other versions
JP2019009666A (ja
Inventor
江都子 水野
江都子 水野
恵大 飯田
恵大 飯田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017124806A priority Critical patent/JP6861398B2/ja
Publication of JP2019009666A publication Critical patent/JP2019009666A/ja
Application granted granted Critical
Publication of JP6861398B2 publication Critical patent/JP6861398B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)

Description

本開示は、情報処理方法、及び、情報処理装置に関する。
子育てに関する情報共有を行うシステムにおいて、従来は子供の音声から子供の状態を診断し、子供から離れた場所にいる保護者(育児者、例えば、子供の母親)に子供の状態を通知する方法が提案されている。
例えば、特許文献1では、子供の泣き声を検知し、子供の泣き声が所定の時間以上継続して発せられたことを条件として保護者の端末に状況を通知する技術が開示されている。
特許第4805496号公報
しかし、特許文献1が開示する技術では、子供の状況のみを診断し、その診断結果を離れた場所にいる育児者に通知する。この技術では、子供と育児者とが共に過ごしている状況に関する情報を、他の育児者(例えば子供の父親)と共有することができない。
そこで、本発明は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法を提供する。
本発明の一態様に係る情報処理方法は、プロセッサを用いて、収音装置による収音により得られる音情報を取得し、前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、識別された前記子供の音声に基づいて、前記子供の状態を判定し、識別された前記大人の音声に基づいて、前記大人の状態を判定し、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、生成された前記通知を前記宛先へ送信する。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
本発明の情報処理方法は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援できる。
図1は、実施の形態1における情報処理システムが提供するサービスの概要を示す説明図である。 図2は、実施の形態1における情報処理システムの機能を示すブロック図である。 図3は、実施の形態1における共有判定部が判定に用いる条件を示すテーブルの説明図である。 図4は、実施の形態1における通知の宛先と、通知の内容を示すテーブルの説明図である。 図5は、実施の形態1における識別部、子供状態判定部及び母親状態判定部が実行する処理の流れを示すフロー図である。 図6は、実施の形態1における共有判定部が実行する処理の流れを示すフロー図である。 図7は、実施の形態1における情報処理システムが提示する画像の第一例を示す説明図である。 図8は、実施の形態1における情報処理システムが提示する画像の第二例を示す説明図である。 図9は、実施の形態2における情報処理システムの機能を示すブロック図である。 図10は、実施の形態2における共有判定部が判定に用いる条件を示すテーブルの説明図である。 図11は、実施の形態2における識別部、子供状態判定部、母親状態判定部及び環境音判定部が実行する処理の流れを示すフロー図である。 図12は、実施の形態2における共有判定部が判定に用いる別の条件を示すテーブルの説明図である。 図13は、実施の形態3における情報処理システムの機能を示すブロック図である。 図14は、実施の形態3における送信部による情報の送信タイミング、及び、情報の通知の態様を示す送信タイミングを示すテーブルの説明図である。
(本発明の基礎となった知見)
特許文献1が開示する技術では、子供の状況のみを診断し、その診断結果を離れた場所にいる育児者(例えば子供の母親)に通知する。この技術は、子供と共に過ごしている育児者に関する情報を、他の育児者(例えば子供の父親)又は関係者(例えば子供の祖父母)に通知するものではない。よって、これだけでは、育児者に関する情報についての他の育児者などの理解が得られない。そのため、他の育児者又は関係者に育児の状況を把握させようとする際には、育児者自らが通知を行うことを要する。育児者自らが独自に、他の育児者又は関係者に通知を行うと、他の育児者又は関係者に、意図と異なる不適切な印象を与えてしまうという問題を生じ得る。不適切な印象を与えてしまった場合には、再度の通知を行う必要が生じ、その通知のための時間又は電力などを余計に消費するという問題も生じ得る。
そこで、本発明は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法を提供する。
このような問題を解決するために、本発明の一態様に係る情報処理方法は、プロセッサを用いて、収音装置による収音により得られる音情報を取得し、前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、識別された前記子供の音声に基づいて、前記子供の状態を判定し、識別された前記大人の音声に基づいて、前記大人の状態を判定し、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、生成された前記通知を前記宛先へ送信する。
上記態様によれば、子供と大人の状態とに応じて生成される通知を宛先に送信する。また、通知は、通知の宛先に応じて生成される。大人がその子供の育児者(例えば母親)であり、通知の宛先が、その子供の他の育児者(例えば父親又は祖父母)である場合、子供と母親の状態を示す通知が、その宛先(つまり父親であるのか、又は、祖父母であるのか等)に応じて生成され送信される。宛先に応じて生成された情報が通知されるので、宛先である他の育児者の理解が得られやすい。よって、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援することができる。
例えば、前記通知を生成することは、前記宛先に応じて異なる表現又は内容を有する前記通知を生成することを含んでもよい。
上記態様によれば、通知の宛先である他の育児者、例えば、父親又は祖父母に応じて異なる表現又は内容によって、その宛先に通知がなされる。通知がその宛先に応じて適切な表現又は内容を有していることで、通知の宛先である他の育児者の理解をより一層深めることを支援することができる。
例えば、前記通知を生成することは、前記宛先に応じて表現又は内容が異なる図柄又は文章であって前記大人の状態を示す図柄又は文章を含む前記通知を生成することを含んでもよい。
上記態様によれば、図柄又は文章を含む通知が送信される。通知に含まれる図柄又は文章によって、通知の宛先である他の育児者は、文字情報の場合より、より直観的に通知の内容を把握できる。
例えば、前記通知を生成することは、生成される前記通知が前記大人の状態を示す図柄又は文章を含むか含まないかが、前記宛先に応じて異なる、前記通知を生成することを含んでもよい。
上記態様によれば、通知に図柄又は文章を含むか否かを、宛先に応じて異ならせることができる。通知の宛先によっては、通知に図柄又は文章を含むことが適切でないこともあり得るので、このような場合に図柄又は文章を含まない通知を送信するのが適切である。この態様によれば、図柄又は文章を含む通知が適切である宛先には図柄を含む通知を送信し、図柄又は文章を含まない通知が適切である宛先には図柄又は文章を含まない通知を送信し得る。
例えば、前記図柄又は前記文章の表現又は内容は、前記宛先の属性に応じて異なってもよい。
上記態様によれば、通知に含まれる図柄又は文章の表現又は内容を、宛先の属性に応じて異ならせることができる。ここで宛先の属性とは、男性、女性、母方又は父方などを意味する。そして、宛先の属性に応じて適切な表現の文章を含む通知を送信し得る。
例えば、前記通知を生成することは、判定された前記子供の状態、および、判定された前記大人の状態の少なくとも一方に応じて指標を算出し、算出した前記指標が閾値より高い場合にのみ、前記通知を生成することを含んでもよい。
上記態様によれば、子供の状態、又は、大人の状態から算出される指標に基づいて、通知を生成するか否かを制御できる。これにより、具体的かつ定量的に、通知を生成するか否かを制御することができる。
例えば、前記通知を生成することは、判定された前記子供の状態、および、判定された前記大人の状態の少なくとも一方に応じて指標を算出し、算出した前記指標が大きいほど、より大きな図柄を含む前記通知を生成することを含んでもよい。
上記態様によれば、子供の状態、又は、大人の状態から算出される指標に基づいて、通知に含まれる図柄の大きさを制御できる。これにより、具体的かつ定量的に、通知に含まれる図柄の大きさを制御し、通知の宛先である他の育児者の理解をより一層深めることに貢献し得る。
例えば、前記通知を生成することは、前記大人の状態を示す情報を入力装置を介して受け付け、受け付けた前記情報を、前記子供が発した形式の情報又は前記子供の状態を示す情報に変換することで、前記通知を生成することを含んでもよい。
上記態様によれば、状態を表す情報を、子供が発したかのような情報、又は、子供の状態を示す情報に変換して宛先である他の育児者に送信することで、他の育児者の理解をより一層深めることに貢献し得る。
例えば、前記宛先は、判定された前記子供の状態、および、判定された前記大人の状態に応じて定められてもよい。
上記態様によれば、通知の宛先が、子供の状態及び大人の状態に基づいて定められる。子供の状態及び大人の状態によっては、特定の宛先に通知することが不適切で場合があり得る。このような場合には、当該特定の宛先に通知しないようにすることができる。
例えば、さらに、前記音情報が示す音に含まれる環境音を識別し、前記大人の状態を判定することは、識別された前記大人の音声、および、前記環境音に基づいて、前記大人の状態を判定することを含んでもよい。
上記態様によれば、大人の状態を判定するためにさらに環境音が用いられる。そして、さらに環境音に基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。
例えば、前記情報処理方法では、さらに、人を検知するセンサによる検知結果を取得し、前記大人の状態を判定することは、識別された前記大人の音声、および、前記検知結果に基づいて、前記大人の状態を判定することを含んでもよい。
上記態様によれば、大人の状態を判定するためにさらにセンサが用いられる。そして、さらにセンサに基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。
例えば、前記情報処理方法では、さらに、前記宛先の位置を示す位置情報を取得し、前記通知を前記宛先へ送信することは、前記位置情報を参照して、前記宛先が所定の位置にいることに応じて前記通知を前記宛先へ送信することを含んでもよい。
上記態様によれば、通知の宛先である他の育児者の位置に応じて通知を送信し得る。他の育児者が通知を確認しやすい状態において通知を送信することにより、他の育児者が通知を認識する確実性が向上し得る。
例えば、前記所定の位置は、乗り物に係る乗降記録機が設置されている位置であり、前記宛先に係る人が携帯する端末による近接無線通信を用いて前記乗降記録機と通信したことに応じて、前記通知を前記宛先へ送信することを含んでもよい。
上記態様によれば、他の育児者が通知を確認しやすいタイミングとして、他の育児者が乗り物に乗降したことに応じて通知を送信する。これにより、他の育児者が通知を認識する確実性がより一層向上し得る。
また、本発明の一態様に係る情報処理装置は、収音装置による収音により得られる音情報が示す音に含まれる、子供の音声および大人の音声を識別する識別部と、識別された前記子供の音声に基づいて、前記子供の状態を判定する子供状態判定部と、識別された前記大人の音声に基づいて、前記大人の状態を判定する大人状態判定部と、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成する生成部と、生成された前記通知を前記宛先へ送信する送信部とを備える。
これにより、上記情報処理方法と同様の効果を奏する。
なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、実施の形態について、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
本実施の形態において、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法などについて説明する。
まず、本発明者らが目指すサービスの概要について図1を参照しながら説明する。
図1は、本実施の形態における情報処理システム1が提供するサービスの概要を示す説明図である。
本発明者らは、子供の状態を遠隔にいる育児者に通知する技術分野において、子供の状態からだけでは見えない育児の大変さなどのネガティブな部分、または幸福感などのポジティブな部分を、他の育児者又は関係者と共有する技術に着目している。そして、上記のネガティブな部分又はポジティブな部分を他の育児者又は関係者に伝え、育児の状況の理解をより一層深めることを目指している。
なお、ここで「子供」とは、乳幼児を指し、より具体的には、生後0日から、6〜7歳までの人を指すが、これに限定されない。
図1に示されるように、本実施の形態における情報処理システム1では、宅内にマイクロフォンなどの音を取得する入力端末10が配置される。そして、情報処理システム1は、入力端末10により取得した音に基づいて、子供の音声と育児者の音声とを分析することで両者それぞれの状態を判定し、その状態を示す情報を他の育児者と共有すべきか否かを判断して情報を提示する。提示される情報は、他の育児者に提示されることが想定される。
なお、上記「育児者」が子供の母親であり、上記「他の育児者」が子供の父親であり、「関係者」が子供の祖父母である場合を例として説明するが、これに限定されない。より一般的には、上記「育児者」及び上記「他の育児者」ともに、大人でありさえすれば本実施の形態が適用され得る。なお、「大人」は、子供でない人とも表現され得る。
これにより、父親は、従来技術では把握できない育児の状況を把握することができる。また、父親は、育児の状況に加えて、日々の育児及び家事における、母親にとって負荷が極めて高いタイミング、または、母親にとっての幸福なタイミングを知ることができる。父親がこれらのタイミングを知ることができれば、これらのことについて後に夫婦で話す時間を設けるなどして、その事象についての詳しい情報を夫婦で共有することができる。このように、本実施の形態の情報処理システム1は、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する。
以降において、本実施の形態の情報処理システム1等について詳しく説明する。
図2は、本実施の形態における情報処理システム1の機能を示すブロック図である。
図2に示されるように、情報処理システム1は、入力部101と、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108と、送信部109と、表示部110とを備える。
入力部101は、収音装置により周囲の音を収音し、収音した音を示す音情報を生成する入力装置である。入力部101は、例えば、マイクロフォンである。
識別部102は、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、および、母親の音声を識別する。例えば、識別部102が子供の音声、および、母親の音声を識別する際には、子供の音声の周波数が比較的高く、母親の音声の周波数が比較的低いという特徴を利用して、所定より低い周波数を子供の音声と識別し、所定より高い周波数を母親の音声と識別することができる。
子供状態判定部103は、識別部102により識別された子供の音声を分析することで、子供の状態を判定する処理部である。
母親状態判定部104は、識別部102により識別された母親の音声を分析することで、母親の状態を判定する処理部である。
保持部105は、子供状態判定部103により判定された子供の状態を一時的に、又は、恒久的に保持する記憶装置である。
保持部106は、母親状態判定部104により判定された母親の状態を一時的に、又は、恒久的に保持する記憶装置である。
共有判定部107は、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態とに基づいて、これらの状態を示す情報を予め登録されている宛先(例えば父親又は祖父母)と共有すべきか否かを判定する処理部である。
生成部108は、予め登録された人物と共有すべきと共有判定部107により判定されたことに応じて、予め登録されている宛先(例えば父親又は祖父母)に提示すべき通知を生成する処理部である。通知の生成の際には、当該通知の宛先に応じて、通知が生成される。通知の内容等については、後で詳しく説明する。
送信部109は、生成部108により生成された画像を父親又は祖父母の携帯端末に送信する処理部である。送信部109は、画像を示す情報を送信するための送信回路、及び、コネクタ又はアンテナなどを含む。
表示部110は、送信部109により送信された画像を表示する表示部である。表示部110は、例えば、携帯電話又はスマートフォンなどの携帯端末の表示画面である。
なお、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108とは、例えば、プロセッサがメモリを用いて、記憶装置等に保存された所定のプログラムを実行することで実現され得る。
なお、識別部102が、入力部101から取得した音情報が示す音から子供の音声を識別する技術は、例えば、公知の子供音声識別技術であるxauris(ゾウリス)を用いて実現され得る。xaurisは、開発者らがあらかじめ集めた子供の音声と状態との関係を示す学習データからディープラーニングを用いて構築された学習モデルを用いて、実行環境において入力された子供の音声から子供の状態を「泣き」、「笑い」、「ぐずり」、「喃語(言葉にならない発話)」の4種類に識別する。よって、識別部102が行う処理のうちの子供の音声を識別する処理と、子供状態判定部103が行う処理とは、xaurisで実現され得る。この場合、子供状態判定部103の判定結果として、「泣き」、「笑い」、「ぐずり」及び「喃語」の4種類の状態が保持部105に格納される。
また、識別部102が、入力部101から取得した音情報が示す音から母親の音声を識別する技術は、公知の話者識別技術を用いて実現され得る。話者識別技術は、さまざまな要素技術により構成されるが、例えば、基本周波数と特定の帯域のスペクトル包絡特性とを用いて検出する方法が採用され得る。ただし、話者識別技術を用いる代わりに、マイクロフォンのような収音デバイスを母親の衣類または装飾品に装着または搭載し、この収音デバイスが取得する音声が母親の音声であると識別する方法を採用してもよい。
なお、母親状態判定部104が、識別部102により識別された母親の音声を分析して母親の状態を判定する技術は、公知の感情解析エンジンを用いて実現され得る。例えば、感情解析エンジンは、人の声を「言葉」としてではなく、「音(トーン)」として捕え、音から人の感情を数値化する。出力される感情は、例えば、「怒り」、「集中」、「困惑」、「興奮」、「思考」、「ストレス」、「躊躇」、「幸福感」、「興味・関心」、「悲しみ・不満」などがある。ここでは、母親状態判定部104が、上記のように「怒り」等の感情を出力する場合を例として説明する。母親状態判定部104の判定結果は、例えば、「怒り:5」、「集中:8」、「困惑:2」というように、感情と数値との組み合わせとして保持部106に格納される。
なお、情報処理システム1は、例えば、入力端末10と、サーバ20と、表示端末30とを備えて構成される。入力端末10とサーバ20との間、及び、サーバ20と表示端末30との間はネットワーク(不図示)により通信可能に接続されている。情報処理システム1が備える上記の機能ブロックは、入力端末10と、サーバ20と、表示端末30とが分担して備える。
例えば、入力端末10は、母親のスマートフォンなどの携帯端末、又は、収音装置と通信機能とを有する専用装置などを採用し得る。サーバ20は、入力端末10及び表示端末30とネットワークを介して通信可能に接続され得るサーバ装置、いわゆるクラウドサーバなどを採用し得る。表示端末30は、父親のスマートフォン等の携帯端末を採用し得る。
そして、入力端末10が入力部101を備える。サーバ20が、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108と、送信部109とを備える。表示端末30が表示部110を備える。
この場合、入力端末10は、入力部101が生成した音情報をネットワークを通じてサーバ20の識別部102に送信する。また、サーバ20は、送信部109が送信する画像等のデータをネットワークを通じて表示端末30の表示部110に送信する。
なお、上記の各装置の機能の分担は、あくまで一例であり、他の機能分担を採用することも可能である。
図3は、本実施の形態における共有判定部107が判定に用いる条件を示すテーブルT1の説明図である。テーブルT1には、共有判定部107が判定に用いる条件の例である第一条件及び第二条件が示されている。
共有判定部107は、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態とに基づいて、これらの状態を示す情報を父親又は祖父母と共有すべきか否かを判定する。この判定のための条件には、さまざまなものが採用され得るが、例えば、ネガティブな状況において上記情報を共有すべきと判定するための条件(第一条件)と、ポジティブな状況において上記情報を共有すべきと判定するための条件(第二条件)とのいずれかが満たされる場合に、上記情報を父親等と共有すべきと共有判定部107が判定する。以降において、各状況、並びに、第一条件及び第二条件について説明する。
(1)ネガティブな状況、及び、第一条件について
ネガティブな状況とは、子供が泣いたりぐずったりしており、かつ、母親が怒りなどのネガティブな感情を抱いている状況を指す。このような状況では、父親又は祖父母による育児若しくは家事の助け、又は、心理面での支えが必要であるので、これらの状態を示す情報を父親又は祖父母と共有すべきであると考えられる。
第一条件は、保持部105に格納された子供の状態についての条件(「子供の条件」ともいう)と、保持部106に格納された母親の状態についての条件(「母親の条件」ともいう)とにより規定される。具体的には、第一条件は、保持部105に格納された子供の状態が「泣き」または「ぐずり」であり、かつ、母親の感情に基づいて以下の(式1)により算出される第一指標が閾値以上であること、とすることができる。
第一指標=(「怒り」の度合い)+(「ストレス」の度合い)+(「困惑」の度合い)−(「幸福感」の度合い) (式1)
ここで、上記の「怒り」等の各感情は、保持部106に格納された、上記時点における母親の状態から取得される。また、例えば、「怒り」等の各感情の度合いが0〜10で評価される場合、第一条件における閾値は例えば15とする。
なお、第一指標は、当該状態を母親と父親とで共有する重要性を示す指標とも言える。第一指標は、上記の他、1以上のネガティブな感情の度合いの合計から、1以上のポジティブな感情の度合いを減算した結果として算出されてもよいし、1以上のネガティブな感情の度合いの合計のみから算出されてもよい。
なお、第一条件の判定において、上記の子供の条件と母親の条件とが、所定の時間(「継続時間」ともいう。例えば60秒)以上継続して満たされる場合にのみ、第一条件を満たすと判定するようにしてもよい。子供の状態と母親の状態とについて、数秒程度の短時間だけにネガティブな状況が発生したとしても、その情報を父親などと共有する必要性は比較的低いと考えられるためである。以降では、子供の条件と母親の条件とが所定の継続時間だけ継続して満たされる場合に第一条件を満たすと判定する場合を説明する。
(2)ポジティブな状況、及び、第二条件について
ポジティブな状況とは、子供が笑ったり喃語を発したりしており、かつ、母親が幸福感などのポジティブな感情を抱いている状況を指す。このような状況では、父親又は祖父母にも同様の感情を抱かせるのが望ましいので、これらの状態を示す情報を父親又は祖父母と共有すべきであると考えられる。
第二条件は、保持部105に格納された子供の状態についての条件、つまり、子供の条件と、保持部106に格納された母親の状態についての条件、つまり、母親の条件とにより規定される。具体的には、第二条件は、保持部105に格納された子供の状態が「笑い」または「喃語」であり、かつ、母親の感情に基づいて以下の(式2)により算出される第二指標が閾値以上であること、とすることができる。
第二指標=(「幸福感」の度合い)+(「集中」の度合い)+(「興味」の度合い)−(「ストレス」の度合い) (式2)
ここで、上記の「幸福感」等の各感情は、保持部106に格納された、上記時点における母親の状態から取得される。また、例えば、「幸福感」等の各感情の度合いが0〜10で評価される場合、第一条件における閾値は例えば15とする。
なお、第二指標は、第一指標と同様、当該状態を母親と父親とで共有する重要性を示す指標とも言える。第二指標は、第一指標と同様、1以上のポジティブな感情の度合いの合計から、1以上のネガティブな感情の度合いを減算した結果として算出されてもよいし、1以上のポジティブな感情の度合いの合計のみから算出されてもよい。
なお、第二条件の判定においても、第一条件の場合と同様、上記の子供の条件と母親の条件とが、所定の時間(つまり継続時間)以上継続して満たされる場合にのみ、第二条件を満たすと判定するようにしてもよい。以降では、子供の条件と母親の条件とが所定の継続時間だけ継続して満たされる場合に第二条件を満たすと判定する場合を説明する。
図4は、本実施の形態における通知の宛先と、通知の内容を示すテーブルT2の説明図である。テーブルT2には、第一条件及び第二条件のそれぞれが満たされた場合の、通知の宛先と、通知の宛先ごとの通知の内容とが示されている。通知の宛先は、子供の状態、および、大人の状態に応じて定められている。
(1)第一条件が満たされた場合
生成部108は、共有判定部107が第一条件を満たすと判定した場合には、子供の父親と、子供の母方の祖父母とのそれぞれに提示するための通知を生成する。
例えば、子供の父親に提示するための通知としては、子供と母親との状態を時系列で示すグラフ上における、第一条件を満たすと判定した時点に相当する位置に、所定の画像を付加した画像を生成する。ここで、所定の画像は、例えば、猫の手のイラスト(図柄)を示す画像である。この所定の画像が付加された時点での母親の状況が、極めて忙しい状況、いわゆる猫の手も借りたい状況(日本のことわざに由来した表現)である時点であるからである。また、所定の画像は、「ママを困らせちゃいました」というメッセージのように、その時点の状況を子供が発したかのような言葉を示す画像としてもよい。
また、例えば、子供の母方の祖父母に提示するための通知としては、「めっちゃ大変なんですけど」というメッセージのように、その時点の状況を母親が発したような言葉を示す画像としてもよい。
(2)第二条件が満たされた場合
生成部108は、共有判定部107が第二指標を算出した場合には、子供の父親と、母方の祖父母と、父方の祖父母とのそれぞれに提示するための通知を生成する。
例えば、子供の父親と、父方の祖父母の場合には、子供と母親との状態を時系列で示すグラフ上における、第二条件を満たすと判定した時点に相当する位置に、所定の画像を付加した画像を生成する。ここで、所定の画像は、例えば、母子の笑顔のイラストを示す画像である。また、所定の画像は、「すっごくたのしんでまちゅ!」というメッセージのように、その時点の母親及び子供の状況を子供が発したかのような言葉を示す画像としてもよい。
また、例えば、子供の母方の祖父母に提示するための通知としては、「すっごく楽しいことがありました!」というメッセージのように、その時点の状況を母親が発したような言葉を示す画像としてもよい。
このように、生成部108は、通知の宛先に応じて異なる表現又は内容を有する通知を生成してもよい。これにより、通知の宛先である他の育児者、例えば、父親又は祖父母に応じて異なる表現又は内容によって、その宛先に通知がなされる。通知がその宛先に応じて適切な表現又は内容を有していることで、通知の宛先である他の育児者の理解をより一層深めることを支援することができる。
また、生成部108は、母親の状態を示す図柄又は文章を含む通知を生成してもよい。これにより、図柄又は文章を含む通知が送信される。通知に含まれる図柄又は文章によって、通知の宛先である他の育児者は、より直観的に通知の内容を把握できる。
そして、生成部108は、通知を生成する際には、生成される通知が母親の状態を示す図柄又は文章を含むか含まないかが、宛先に応じて異なる通知を生成してもよい。また、生成部108は、通知を生成する際には、図柄又は文章の内容が、宛先に応じて異なる通知を生成してもよい。これにより、通知に図柄又は文章を含むか否かを、宛先に応じて異ならせることができる。通知の宛先によっては、通知に図柄又は文章を含むことが適切でないこともあり得るので、このような場合に図柄又は文章を含まない通知を送信するのが適切である。この態様によれば、図柄又は文章を含む通知が適切である宛先には図柄又は文章を含む通知を送信し、図柄又は文章を含まない通知が適切である宛先には図柄又は文章を含まない通知を送信し得る。
また、生成部108は、通知を生成する際には、生成される通知に含まれる図柄又は文章の表現又は内容が、宛先に応じて異なる通知を生成してもよい。これにより、通知に含まれる図柄又は文章の表現又は内容を、宛先に応じて異ならせることができる。そして、宛先に応じて適切な表現又は内容の図柄又は文章を含む通知を送信し得る。
また、生成部108は、通知を生成する際には、文章の表現が宛先の属性に応じて異なる通知を生成してもよい。これにより、通知に含まれる文章の表現を、宛先の属性に応じて異ならせることができる。ここで宛先の属性とは、男性、女性、母方又は父方などを意味する。そして、宛先の属性に応じて適切な表現の文章を含む通知を送信し得る。
なお、生成部108は、通知を生成する際には、子供の状態、および、母親の状態の少なくとも一方に応じて通知の重要性を示す指標を算出し、算出した指標が閾値より高い場合にのみ、通知を生成してもよい。上記の第一指標及び第二指標は、母親の状態に応じて通知の重要性を示す指標の一例である。上記の第一指標及び第二指標の代わりに、子供の状態に応じて通知の重要性を示す指標を採用することも可能である。これにより、子供の状態、又は、大人の状態から算出される指標に基づいて、通知を生成するか否かを制御できる。これにより、具体的かつ定量的に、通知を生成するか否かを制御することができる。
なお、生成部108は、通知を生成する際には、子供の状態、および、母親の状態の少なくとも一方に応じて、通知の重要性を示す指標を算出し、算出した指標が大きいほど、より大きな図柄を含む通知を生成してもよい。具体的には、上記の猫の手のイラスト、又は、母子の笑顔を示すイラストの寸法をより大きくしてもよい。これにより、子供の状態、又は、大人の状態から算出される指標に基づいて、通知に含まれる図柄の大きさを制御できる。これにより、具体的かつ定量的に、通知に含まれる図柄の大きさを制御し、通知の宛先である他の育児者の理解をより一層深めることに貢献し得る。
以上のように構成された情報処理装置について、その処理の流れを具体例と図面を用いて説明する。
図5は、本実施の形態における識別部102、子供状態判定部103及び母親状態判定部104が実行する処理の流れを示すフロー図である。
ステップS1において、識別部102は、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、および、母親の音声を識別する。
ステップS2において、識別部102は、ステップS1で子供の音声が識別されたか否かを判定する。子供の音声が識別されたと判定した場合(ステップS2でYes)にはステップS3に進み、そうでない場合(ステップS2でNo)にはステップS4に進む。
ステップS3において、子供状態判定部103は、ステップS1で識別した子供の音声に基づいて子供の状態を判定し、子供の状態を保持部105に格納する。
ステップS4において、識別部102は、ステップS1で母親の音声が識別されたか否かを判定する。母親の音声が識別されたと判定した場合(ステップS4でYes)にはステップS5に進み、そうでない場合(ステップS4でNo)には、本フロー図に示された一連の処理を終了する。
ステップS5において、母親状態判定部104は、ステップS1で識別した母親の音声に基づいて母親の状態を判定し、母親の状態を保持部106に格納する。
以上の処理について、具体例に当てはめながら、さらに詳しく声明する。
ここでは、ある日の夕方、夕飯の支度時に母親がキッチンに立ったところ、少しお腹がすいてきた2歳の子供が母親に相手してほしさにぐずり出してしまったシーンを例に説明する。子供が泣きながら母親をキッチンから連れ出そうとして、また、早くご飯を食べたいことから「あっちーあっちーい!」、「ほちい!」などという言葉を発しながら、母親の作業を邪魔し、ぐずって泣き出してしまった。これに対し、母親が「今は無理!」、「ごはん食べられないよ?いいの!?」、「だーめ!」などという言葉を発しながら、無理やり作業をすすめようとするやり取りが2分間続いたとする。
まず、識別部102が、入力部101から取得した音情報に含まれる子供の音声「あっちーあっちーい!」及び「ほちい!」を識別する。また、識別部102が、入力部101から取得した音情報に含まれる母親の音声「今は無理!」、「ごはん食べられないよ?いいの!?」及び「だーめ!」を識別する(ステップS1)。
子供状態判定部103は、ステップS1で識別した子供の音声「あっちーあっちーい!」及び「ほちい!」に基づいて、子供の状態が「ぐずり」であると判定し、その判定結果を保持部105に格納する(ステップS3)。
母親状態判定部104は、ステップS1で識別した母親の音声「今は無理!」、「ごはん食べられないよ?いいの!?」及び「だーめ!」に基づいて、母親の状態が「怒り:8」、「困惑:8」、「ストレス:9」、「幸福感:1」であると判定し、その判定結果を保持部106に格納する(ステップS5)。
次に、共有判定部107による処理について説明する。
図6は、本実施の形態における共有判定部107が実行する処理の流れを示すフロー図である。
ステップS11において、共有判定部107は、保持部105から子供の状態を取得し、また、保持部106から母親の状態を取得する。
ステップS12において、共有判定部107は、ステップS11で取得した子供の状態が「泣き」又は「ぐずり」であるか否かを判定する。子供の状態が「泣き」又は「ぐずり」である場合(ステップS12でYes)には、ステップS13に進み、そうでない場合(ステップS12でNo)には、ステップS21に進む。
ステップS13において、共有判定部107は、ステップS11で取得した母親の状態に基づいて上記(式1)を用いて第一指標を算出する。
ステップS14において、共有判定部107は、算出した第一指標が閾値以上であるか否かを判定する。第一指標が閾値以上である場合(ステップS14でYes)には、ステップS15に進み、そうでない場合(ステップS14でNo)には、本フロー図の処理を終了する。
ステップS15において、共有判定部107は、現時点の状態、つまり、子供の状態が「泣き」又は「ぐずり」であり、かつ、母親の感情に基づく第一指標が閾値以上である状態が直近の60秒間継続しているか否かを判定する。現時点の状態が直近の60秒間継続している場合(ステップS15でYes)には、ステップS16に進み、そうでない場合(ステップS15でNo)には、本フロー図の処理を終了する。
ステップS16において、生成部108は、ステップS13で共有判定部107により算出された第一指標に基づいて通知を生成する。生成される通知は、上記のとおり、通知の宛先に応じて異なる表現又は内容を含んでもよい。
ステップS17において、送信部109は、ステップS16で生成された通知を送信し、表示部110により表示する。ステップS17の処理を終えたら、本フロー図に示されている一連の処理を終了する。
ステップS21において、共有判定部107は、ステップS11で取得した子供の状態が「笑い」又は「喃語」であるか否かを判定する。子供の状態が「笑い」又は「喃語」である場合(ステップS21でYes)には、ステップS22に進み、そうでない場合(ステップS21でNo)には、本フロー図の処理を終了する。
ステップS22において、共有判定部107は、ステップS11で取得した母親の状態に基づいて上記(式2)を用いて第二指標を算出する。
ステップS23において、共有判定部107は、算出した第二指標が閾値以上であるか否かを判定する。第二指標が閾値以上である場合(ステップS23でYes)には、ステップS24に進み、そうでない場合(ステップS23でNo)には、本フロー図の処理を終了する。
ステップS24において、共有判定部107は、現時点の状態、つまり、子供の状態が「笑い」又は「喃語」であり、かつ、母親の感情に基づく第二指標が閾値以上である状態が直近の60秒間継続しているか否かを判定する。現時点の状態が直近の60秒間継続している場合(ステップS24でYes)には、ステップS25に進み、そうでない場合(ステップS24でNo)には、本フロー図の処理を終了する。
ステップS25において、生成部108は、ステップS22で共有判定部107により算出された第二指標に基づいて通知を生成する。生成される通知は、上記のとおり、通知の宛先に応じて異なる表現又は内容を含んでもよい。ステップS25を終えたら、ステップS17に進む。
このように、ステップS16及びS25において、生成部108は、子供の状態、および、母親の状態と、母親の状態についての通知の宛先とに応じて、通知を生成する。これにより、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する。
具体例を示しながらさらに具体的に説明する。
上記ステップS11において共有判定部107が、子供の状態として「ぐずり」を、母親の状態として「怒り:8」、「困惑:8」、「ストレス:9」、「幸福感:1」を取得したとする。この場合、子供の状態が「ぐずり」であり(ステップS12でYes)、第一指標が以下の(式3)から24と算出され(ステップS13)、閾値15を超えている。
第一指標=8+9+8―1=24 (式3)
また、子供の状態が「ぐずり」であり、かつ、第一指標が閾値を超えている状態が60秒以上継続しているので(ステップS14でYes)、生成部108が第一指標に基づいて通知を生成する(ステップS16)。
次に、生成部108は、通知の宛先(具体的には、子供の父親と、子供の母方の祖父母)ごとに、通知のための画像を生成する(ステップS16)。例えば、生成部108は、父親に送付する画像として、子供と母親との状態を時系列で示すグラフ上に猫の手のイラストを付与した画像を生成する。また、生成部108は、母方の祖父母に送付する画像として、子供の母親が発したような「めっちゃ大変」というメッセージを含む画像を生成する。生成部108は、生成した画像を送信部109を経由して、表示部110へ提供する(ステップS17)。
以上の一連の処理により情報処理システム1が提示する画像について説明する。
図7は、本実施の形態における情報処理システム1が提示する画像の第一例を示す説明図である。
図7の(a)に示される表示端末30の表示部110は、子供と母親との状態を時系列で示すグラフとともに、母親の状態を示す、猫の手のイラスト40が付された画像を表示している。このグラフは、より具体的には、子供と母親との状態の一例としての、子供と母親が発する音声の頻度を縦軸に示し、時間経過を横軸に示したものである。なお、音声の頻度の代わりに、音声の強度が用いられてもよい。
これより、父親は、従来技術では把握できない育児の状況を、定量情報とともに把握することができる。そして、母親は、育児の状況を父親又は関係者と共有することができる。それに加えて、情報処理システム1は、日々の育児及び家事における、母親にとって負荷が極めて高いタイミング、または、母親にとっての幸福なタイミングと、その事象とを父親又は関係者に通知する。これにより、父親又は関係者にとってその情報に対する興味を湧かせ、育児に対する理解がより一層深まり、さらには家庭生活の充実につなげることができる。
このように育児及び家事に関する情報を共有することが、家庭においてその後の育児サポートが円滑に行われるための大きな一歩になることは言うまでもない。また、父親における意識の変革や所謂「イクメン」の精神の醸成にもつながる。
なお、生成部108が通知の宛先によって異なる画像を生成することで、通知の宛先ごとに適した形式で通知を行うことができ、通知の宛先の者によるより一層の理解を得ることができる。
なお、通知の形式は、上記のように、子供と母親との状態を時系列で示すグラフとともに母親の状態を示す画像を示すものに限定されない。例えば、図7の(b)に示されるように、表示端末30上での短文の通知、例えばスマートフォンのロック画面におけるいわゆるプッシュ通知41であってもよい。
なお、通知に含まれる画像には、母親が入力した文字列が付されていてもよい。このことについて図8を参照しながら具体的に説明する。
図8は、本実施の形態における情報処理システム1が提示する画像の第二例を示す説明図である。
図8の(a)は、上記グラフとともに、母親の状態を示す文字列を含む画像42を示している。画像42は、母親から受け付けた文字列「またもや起こされた」を含む画像である。これにより、母親が自身で入力した情報が父親又は関係者に共有され得る。
さらにこの場合、母親から受け付けた文字列を、子供が発した形式の情報又は子供の状態を示す情報に変換することで、通知を生成してもよい。例えば、上記の文字列「またもや起こされた」を子供が発した形式の情報「またママをおこしちゃったの」に変換した画像43を含む通知を生成してもよい(図8の(b))。このとき、変換前の情報と変換後の情報とは、ともに母親の状態を表現したものであるので、表現方式が異なるものの、意図は概ね維持される。母親の状態を母親が表現する言葉よりも、その母親の状態を、子供が発したかのような言葉で表現する方が、父親又は関係者に、より適切に共有され得る可能性があるからである。これにより、状態を表す情報を、子供が発したかのような情報に変換して宛先である他の育児者に送信することで、他の育児者の理解をより一層深めることに貢献し得る。なお、さらに子供のイラスト44を付すことで、その言葉を子供が発した雰囲気を強調することもできる。
なお、母親状態判定部104による母親の状態の判定について、ここでは母親の音声のみに基づいて状態を判定したが、調理家電、例えばIHクッキングヒーターのON/OFF音、又は、流し台における流水音の有無などを検知して母親の状態の判定に用いてもよい。また、調理家電などの機器から直接にステータス情報を入手して用いてもよい。さらには、家電機器に搭載されているセンサの情報、例えば、温度、湿度、また人行動を検知して母親状態の分析に用いてもよい。
以上のように本実施の形態の情報処理システムは、子供と大人の状態とに応じて生成される通知を宛先に送信する。また、通知は、通知の宛先に応じて生成される。大人がその子供の育児者(例えば母親)であり、通知の宛先が、その子供の他の育児者(例えば父親又は祖父母)である場合、子供と母親の状態を示す通知が、その宛先(つまり父親であるのか、又は、祖父母であるのか等)に応じて生成され送信される。宛先に応じて生成された情報が通知されるので、宛先である他の育児者の理解が得られやすい。よって、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援することができる。
(実施の形態2)
本実施の形態において、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法などについて説明する。本実施の形態の情報処理方法は、子供と育児者(母親)との音声に加えて、さらに環境音に基づいて、子供と育児者とが共に過ごしている状況を判定し、他の育児者の理解をより一層深めることを支援する。
図9は、本実施の形態における情報処理システム2の機能を示すブロック図である。
図9に示されるように、情報処理システム2は、入力部101と、識別部102Aと、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107Aと、生成部108と、送信部109と、表示部110と、環境音判定部112と、保持部113とを備える。
ここで、情報処理システム2の機能ブロックのうち、識別部102Aと、環境音判定部112と、保持部113とを除く機能ブロックは、実施の形態1におけるものと同じであるので詳細な説明を省略する。また、サーバ20Aは、実施の形態1におけるサーバ20に相当する。
識別部102Aは、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、母親の音声、および環境音を識別する。ここで、識別部102Aが、環境音を識別する点で識別部102と異なる。環境音とは、入力部101が収音装置により収音した周囲の音のうち、子供の音声と母親の音声とを除く音である。環境音は、具体的には、家電(例えばIHクッキングヒーター、電子レンジ、洗濯機又は玩具)の操作音及び動作音、家事に伴って生じる音(例えばキッチンのシンクの流水音、ドアの開閉音、包丁で物を切るときに生ずる音)、家事ではない動作に伴って生じる音(例えば楽器が発する音、手をたたく音、踊り又は歩行などにより生ずる足音)などを含む。
環境音判定部112は、識別部102Aにより識別された環境音を分析することで、環境に関する状態を判定する処理部である。
保持部113は、環境音判定部112により判定された、環境に関する状態を一時的に、又は、恒久的に保持する記憶装置である。
共有判定部107Aは、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態と、保持部113に保持されている環境に関する状態とに基づいて、これらの状態を示す情報を予め登録されている宛先(例えば父親又は祖父母)と共有すべきか否かを判定する処理部である。より具体的には、共有判定部107Aは、環境に関する状態から、母親が家事をしているか、又は、子供と遊戯をしているかを判定する。
図10は、本実施の形態における共有判定部107Aが判定に用いる条件を示すテーブルT3の説明図である。テーブルT3には、共有判定部107Aが判定に用いる条件の例である第一条件及び第二条件が示されている。
共有判定部107Aは、保持部105に保持されている子供の状態と、保持部106に保持されている母親の状態と、保持部113に保持されている環境に関する状態とに基づいて、第一条件及び第二条件が満たされるか否かを判定する。
(1)第一条件について
第一条件は、実施の形態1の第一条件に加えて、環境に関する状態に基づく条件がさらに考慮される。具体的には、第一条件は、保持部105に格納された子供の状態が「泣き」または「ぐずり」である場合に、母親の感情に基づいて算出される第一指標が閾値以上である、又は、母親が家事をしていること、とすることができる。
子供が泣いたりぐずったりしている時に、母親が家事をしている場合、母親の感情に関わらず、父親又は祖父母による育児若しくは家事の助け、又は、心理面での支えが必要であるので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。
(2)第二条件について
第二条件は、実施の形態1の第二条件に加えて、環境に関する状態に基づく条件がさらに考慮される。具体的には、第二条件は、保持部105に格納された子供の状態が「笑い」または「喃語」である場合に、母親の感情に基づいて算出される第二指標が閾値以上である、又は、母親と子供とが共に遊戯をしていること、とすることができる。
子供が笑ったり喃語を発したりしている時に、母親と子供とが共に遊戯中である場合、母親の感情に関わらず、父親又は祖父母にも幸福感などのポジティブな感情を抱かせるのが望ましいので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。
以上のように構成された情報処理システム2について、その処理の流れを図面を用いて説明する。
図11は、本実施の形態における識別部102A、子供状態判定部103、母親状態判定部104及び環境音判定部112が実行する処理の流れを示すフロー図である。
なお、子供状態判定部103及び母親状態判定部104が実行する処理(ステップS2からS5)は、実施の形態1におけるものと同じであるので詳細な説明を省略する。
ステップS1Aにおいて、識別部102Aは、入力部101から音情報を取得し、取得した音情報が示す音に含まれる子供の音声、母親の音声、および、環境音を識別する。
ステップS2からS5において、子供状態判定部103が判定した子供の状態が保持部105に格納され、母親状態判定部104が判定した母親の状態が保持部106に格納される(詳細は実施の形態1を参照)。
ステップS6において、識別部102Aは、ステップS1で環境音が識別されたか否かを判定する。環境音が識別されたと判定した場合(ステップS6でYes)にはステップS7に進み、そうでない場合(ステップS6でNo)には、本フロー図に示された一連の処理を終了する。
ステップS7において、環境音判定部112は、ステップS1で識別した環境音の音声に基づいて環境の状態を判定し、判定した環境の状態を保持部113に格納する。具体例では、ステップS1で識別した環境音である、IHクッキングヒーターの操作音に基づいて、家事がなされていると判定し、その判定結果を保持部113に格納する。
本フロー図に示された一連の処理が終了したら、共有判定部107Aが、子供の状態と、母親の状態と、環境に関する状態とに基づいて、これらの状態を示す情報を父親又は祖父母と共有すべき度合いを示す指標を算出する。この処理は、図6に示される処理と同様であるが、ステップS14及びステップS23の処理のみが異なる。具体的には、ステップS14の判定の条件を、「第一指標が閾値以上である、又は、母親が家事をしている?」とする。また、ステップS23の判定の条件を、「第二指標が閾値以上である、又は、母親が遊戯をしている?」とする。
このように、情報処理システム2は、子供の音声および大人の音声を識別する際には、子供の音声、大人の音声、および、環境音を識別し、大人の状態を判定する際には、識別された大人の音声、および、環境音に基づいて、大人の状態を判定してもよい。
このようにすることで、情報処理システム2は、子供と母親との音声に加えて、さらに環境音に基づいて、子供と育児者とが共に過ごしている状況を判定し、他の育児者の理解をより一層深めることを支援する。
なお、共有判定部107Aが判定に用いる条件の別の例についてさらに説明する。
図12は、本実施の形態における共有判定部107Aが判定に用いる別の条件を示すテーブルT4の説明図である。図12に示されるテーブルT4は、図10に示されるテーブルT3の代わりに用いられてもよいし、テーブルT3とともに用いられてもよい。
(1)第一条件について
第一条件は、実施の形態1の第一条件に加えて、人(つまり子供又は母親)の動作に基づく条件がさらに考慮される。具体的には、第一条件は、保持部105に格納された子供の状態が「泣き」または「ぐずり」である場合に、母親の感情に基づいて算出される第一指標が閾値以上である、又は、人の動作がイレギュラーな動作であること、とすることができる。ここで、人のイレギュラーな動作は、走り回っている、せわしなく動いている又は大声を伴う動きなどのネガティブな事象に起因する動作であることが想定される。
子供が泣いたりぐずったりしているときに、母親がイレギュラーな動作をしている場合、母親の感情に関わらず、父親又は祖父母による育児若しくは家事の助け、又は、心理面での支えが必要であるので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。
(2)第二条件について
第二条件は、実施の形態1の第二条件に加えて、人(つまり子供又は母親)の動作に基づく条件がさらに考慮される。具体的には、第二条件は、保持部105に格納された子供の状態が「笑い」または「喃語」である場合に、母親の感情に基づいて算出される第二指標が閾値以上である、又は、人の動作がイレギュラーな動作であること、とすることができる。ここで、人のイレギュラーな動作は、上記(1)におけるイレギュラーな動作と異なり、両手を挙げている(高い高い)、遅い速度で継続的に移動している(追いかけっこ)、上下運動をしている(いないいないばあ)などのポジティブな事象に起因する動作であることが想定される。
子供が笑ったり喃語を発したりしているときに、母親と子供とが共に遊戯中である場合、母親の感情に関わらず、父親又は祖父母にも幸福感などのポジティブな感情を抱かせるのが望ましいので、これらの状態を示す情報を父親又は祖父母と共有すべきであるといえるからである。
このように、情報処理システム2は、さらに、大人の身体を検知するセンサによる検知結果を取得し、大人の状態を判定する際には、識別された大人の音声、および、上記検知結果に基づいて、大人の状態を判定してもよい。
以上のように、本実施の形態に係る情報処理方法によれば、大人の状態を判定するためにさらに環境音が用いられる。そして、さらに環境音に基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。
また、大人の状態を判定するためにさらにセンサが用いられる。そして、さらにセンサに基づいて判定された大人の状態に応じて通知が生成され送信される。これにより、大人の状態をより詳細に判定することができ、この詳細な判定に基づいて通知の生成及び送信がなされる。
(実施の形態3)
本実施の形態において、子供と育児者とが共に過ごしている状況についての、他の育児者の理解をより一層深めることを支援する情報処理方法などについて説明する。本実施の形態の情報処理方法では、通知の宛先に係る人がより確認しやすいタイミングに通知を行うことで、通知を認識する確実性を向上させる、言い換えれば、伝え漏れを防ぐことができる。
図13は、本実施の形態における情報処理システム3の機能を示すブロック図である。
図13に示されるように、情報処理システム3は、入力部101と、識別部102と、子供状態判定部103と、母親状態判定部104と、保持部105及び106と、共有判定部107と、生成部108と、送信部109Aと、表示部110と、位置取得部115とを備える。
位置取得部115は、通知の宛先の位置を示す位置情報を取得する処理部である。位置取得部115は、具体的には、通知の宛先の者が携帯している携帯端末32の位置情報を取得する位置センサである。位置取得部115は、例えば、鉄道会社の改札機のシステムから、携帯端末32の保有者、つまり、子供の父親が、所定の駅の改札機を通過したことを示す情報を受信すると、子供の父親が当該改札機の地点の近傍の位置を示す位置情報を生成する。携帯端末32は、例えば、改札機と近接無線通信をするスマートフォン又は携帯電話、若しくは、非接触型ICカード等である。なお、位置取得部115は、携帯端末32の位置情報を取得できるものであれば、他の手段であってもよい。位置取得部115は、例えば、携帯端末32に搭載されたGPS(Global Positioning System)受信器から、携帯端末32の位置を取得してもよい。なお、携帯端末32は、表示端末30と同一の端末であってもよい。また、改札機との通信の代わりに、バスの運賃支払い機などの乗り物を利用する際に用いられる通信機(乗降記録機ともいう)との通信が利用されてもよい。
送信部109Aは、生成部108が生成した情報の送信タイミング、及び、情報の通知の態様を、位置取得部115が取得した位置情報に応じて制御する。具体的には、送信部109Aは、位置取得部115が取得した位置情報を参照して、宛先が所定の位置に位置していることに応じて通知を宛先へ送信する。例えば、乗り物の乗降記録機の位置情報が既知である場合に、送信部109Aは、宛先に係る人が携帯する端末による近接無線通信を用いて乗降記録機と通信したことに応じて通知を宛先へ送信する。より具体的には、宛先に係る人が携帯する端末による近接無線通信を用いて駅の改札を通過したタイミングに、通知を宛先へ送信する。
図14は、本実施の形態における送信部109Aによる情報の送信タイミング、及び、情報の通知の態様を示す送信タイミングを示すテーブルT5の説明図である。
図14に示されるように、テーブルT5は、時間帯51と、位置52と、通知の態様53との情報を、各エントリについて示す。各エントリは、時間帯と位置とが与えられる場合に、父親が保有する表示端末30にどのような態様で通知をするかを示している。
時間帯51は、表示端末30により通知を行う時間帯を示す情報である。時間帯51は、例えば、午前、午後、7時台、15時台のように時間帯を指定する。なお、時間帯の時間長はどのようなものであってもよく、数時間、数分であってもよい。
位置52は、表示端末30により通知を行うときの表示端末30の位置を示す情報である。位置52は、位置を一意に特定し得る情報であればどのような形式でもよく、一組の緯度及び経度、住所、目印となる建物の名称などである。
通知の態様53は、表示端末30により通知を行う態様を示す情報である。例えば、通知の態様53は、「画像の更新」又は「プッシュ通知」がある。
以上のように、本実施の形態に係る情報処理方法によれば、通知の宛先である他の育児者の位置に応じて通知を送信し得る。他の育児者が通知を確認しやすい状態において通知を送信することにより、他の育児者が通知を認識する確実性が向上し得る。
また、他の育児者が通知を確認しやすいタイミングとして、他の育児者が乗り物に乗降したことに応じて通知を送信する。これにより、他の育児者が通知を認識する確実性がより一層向上し得る。
なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。ここで、上記各実施の形態の情報処理システムなどを実現するソフトウェアは、次のようなプログラムである。
すなわち、このプログラムは、コンピュータに、プロセッサを用いて、収音装置による収音により得られる音情報を取得し、前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、識別された前記子供の音声に基づいて、前記子供の状態を判定し、識別された前記大人の音声に基づいて、前記大人の状態を判定し、判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、生成された前記通知を前記宛先へ送信する、情報処理方法を実行させる。
以上、一つまたは複数の態様に係る情報処理システムなどについて、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
本発明は、子供(乳幼児)と育児者(例えば母親)における育児などの状況を、他の育児者(例えば父親)又は関係者(例えば祖父母)との間で共有する情報共有方法などとして有用である。
1、2、3 情報処理システム
10 入力端末
20、20A サーバ
30 表示端末
32 携帯端末
40、44 イラスト
101 入力部
102、102A 識別部
103 子供状態判定部
104 母親状態判定部
105、106、113 保持部
107、107A 共有判定部
108 生成部
109、109A 送信部
110 表示部
112 環境音判定部
115 位置取得部
T1、T2、T3、T4、T5 テーブル

Claims (14)

  1. プロセッサを用いて、
    収音装置による収音により得られる音情報を取得し、
    前記音情報が示す音に含まれる、子供の音声および大人の音声を識別し、
    識別された前記子供の音声に基づいて、前記子供の状態を判定し、
    識別された前記大人の音声に基づいて、前記大人の状態を判定し、
    判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成し、
    生成された前記通知を前記宛先へ送信する、
    情報処理方法。
  2. 前記通知を生成することは、前記宛先に応じて異なる表現又は内容を有する前記通知を生成することを含む
    請求項1に記載の情報処理方法。
  3. 前記通知を生成することは、前記宛先に応じて表現又は内容が異なる図柄又は文章であって前記大人の状態を示す図柄又は文章を含む前記通知を生成することを含む
    請求項2に記載の情報処理方法。
  4. 前記通知を生成することは、生成される前記通知が前記大人の状態を示す図柄又は文章を含むか含まないかが、前記宛先に応じて異なる、前記通知を生成することを含む
    請求項2又は3に記載の情報処理方法。
  5. 前記図柄又は前記文章の表現又は内容は、前記宛先の属性に応じて異なる
    請求項3に記載の情報処理方法。
  6. 前記通知を生成することは、判定された前記子供の状態、および、判定された前記大人の状態の少なくとも一方に応じて指標を算出し、算出した前記指標が閾値より高い場合にのみ、前記通知を生成することを含む
    請求項1〜5のいずれか1項に記載の情報処理方法。
  7. 前記通知を生成することは、判定された前記子供の状態、および、判定された前記大人の状態の少なくとも一方に応じて指標を算出し、算出した前記指標が大きいほど、より大きな図柄を含む前記通知を生成することを含む
    請求項1〜6のいずれか1項に記載の情報処理方法。
  8. 前記通知を生成することは、
    前記大人の状態を示す情報を入力装置を介して受け付け、
    受け付けた前記情報を、前記子供が発した形式の情報又は前記子供の状態を示す情報に変換することで、前記通知を生成することを含む
    請求項1〜7のいずれか1項に記載の情報処理方法。
  9. 前記宛先は、判定された前記子供の状態、および、判定された前記大人の状態に応じて定められる
    請求項1〜7のいずれか1項に記載の情報処理方法。
  10. さらに、前記音情報が示す音に含まれる環境音を識別し、
    前記大人の状態を判定することは、
    識別された前記大人の音声、および、前記環境音に基づいて、前記大人の状態を判定することを含む
    請求項1〜9のいずれか1項に記載の情報処理方法。
  11. 前記情報処理方法では、さらに、人を検知するセンサによる検知結果を取得し、
    前記大人の状態を判定することは、
    識別された前記大人の音声、および、前記検知結果に基づいて、前記大人の状態を判定することを含む
    請求項1〜10のいずれか1項に記載の情報処理方法。
  12. 前記情報処理方法では、さらに、前記宛先の位置を示す位置情報を取得し、
    前記通知を前記宛先へ送信することは、
    前記位置情報を参照して、前記宛先が所定の位置にいることに応じて前記通知を前記宛先へ送信することを含む
    請求項1〜11のいずれか1項に記載の情報処理方法。
  13. 前記所定の位置は、乗り物に係る乗降記録機が設置されている位置であり、
    前記宛先に係る人が携帯する端末による近接無線通信を用いて前記乗降記録機と通信したことに応じて、前記通知を前記宛先へ送信することを含む
    請求項12に記載の情報処理方法。
  14. 収音装置による収音により得られる音情報が示す音に含まれる、子供の音声および大人の音声を識別する識別部と、
    識別された前記子供の音声に基づいて、前記子供の状態を判定する子供状態判定部と、
    識別された前記大人の音声に基づいて、前記大人の状態を判定する大人状態判定部と、
    判定された前記子供の状態、および、判定された前記大人の状態と、前記大人の状態についての通知の宛先とに応じて、前記通知を生成する生成部と、
    生成された前記通知を前記宛先へ送信する送信部とを備える
    情報処理装置。
JP2017124806A 2017-06-27 2017-06-27 情報処理方法、及び、情報処理装置 Active JP6861398B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017124806A JP6861398B2 (ja) 2017-06-27 2017-06-27 情報処理方法、及び、情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017124806A JP6861398B2 (ja) 2017-06-27 2017-06-27 情報処理方法、及び、情報処理装置

Publications (2)

Publication Number Publication Date
JP2019009666A JP2019009666A (ja) 2019-01-17
JP6861398B2 true JP6861398B2 (ja) 2021-04-21

Family

ID=65029807

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017124806A Active JP6861398B2 (ja) 2017-06-27 2017-06-27 情報処理方法、及び、情報処理装置

Country Status (1)

Country Link
JP (1) JP6861398B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2023286249A1 (ja) * 2021-07-15 2023-01-19
CN114954339B (zh) * 2022-05-24 2023-04-28 中国第一汽车股份有限公司 一种基于语音识别技术防止儿童被困车内的检测装置和方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3575790B2 (ja) * 2000-05-08 2004-10-13 株式会社コムアップ 情報共有システム及び方法
JP2007004792A (ja) * 2006-06-19 2007-01-11 Matsushita Electric Ind Co Ltd 光出力装置および情報処理端末
JP2008250362A (ja) * 2007-03-29 2008-10-16 Nec Corp 健康状態管理支援システム
JP2012038281A (ja) * 2010-08-09 2012-02-23 First:Kk 子育てつぶやきシステム
KR101421217B1 (ko) * 2013-11-18 2014-07-23 (주) 나무와 숲 아동심리와 부모스트레스의 연관관계를 이용한 아동정서 관리방법
JP2015184563A (ja) * 2014-03-25 2015-10-22 シャープ株式会社 対話型家電システム、サーバ装置、対話型家電機器、家電システムが対話を行なうための方法、当該方法をコンピュータに実現させるためのプログラム
CN106803219B (zh) * 2017-01-18 2021-04-23 吉林大学 一种基于智能脚环的面向新生儿护理的作息识别记录方法

Also Published As

Publication number Publication date
JP2019009666A (ja) 2019-01-17

Similar Documents

Publication Publication Date Title
US11830517B2 (en) Systems for and methods of intelligent acoustic monitoring
US10621478B2 (en) Intelligent assistant
JP6558364B2 (ja) 情報処理装置、情報処理方法及びプログラム
CN109427333A (zh) 激活语音识别服务的方法和用于实现所述方法的电子装置
JP5904021B2 (ja) 情報処理装置、電子機器、情報処理方法、及びプログラム
US20150338917A1 (en) Device, system, and method of controlling electronic devices via thought
CN103778527A (zh) 一种语音备忘提示方法及设备
JP6745419B1 (ja) 検出されたイベントに関する情報を提供するための方法、システム、および媒体
CN110719553B (zh) 具有认知声音分析和响应的智能扬声器系统
EP3940698A1 (en) A computer-implemented method of providing data for an automated baby cry assessment
JP6861398B2 (ja) 情報処理方法、及び、情報処理装置
KR20230015980A (ko) 여러 어시스턴트 디바이스들에서 동시 음향 이벤트 검출
Myakala et al. A low cost intelligent smart system for real time infant monitoring and cry detection
CN110930643A (zh) 一种防止婴幼儿遗落车内的智能安全系统及方法
Myakala et al. An intelligent system for infant cry detection and information in real time
US10219127B2 (en) Information processing apparatus and information processing method
US11749270B2 (en) Output apparatus, output method and non-transitory computer-readable recording medium
JPWO2018061346A1 (ja) 情報処理装置
CN113539282A (zh) 声音处理装置、系统和方法
EP3531369A1 (en) Information processing device and information processing method
JP2020005036A (ja) コンピュータプログラム及びサーバ
CN112420078B (zh) 一种监听方法、装置、存储介质及电子设备
US10601757B2 (en) Multi-output mode communication support device, communication support method, and computer program product
CN110853294A (zh) 利用家用电器进行监控的方法、装置和计算机存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200611

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210316

R151 Written notification of patent or utility model registration

Ref document number: 6861398

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151