JP2015133611A - 通知システム、通知プログラム、通知方法および通知装置 - Google Patents

通知システム、通知プログラム、通知方法および通知装置 Download PDF

Info

Publication number
JP2015133611A
JP2015133611A JP2014004045A JP2014004045A JP2015133611A JP 2015133611 A JP2015133611 A JP 2015133611A JP 2014004045 A JP2014004045 A JP 2014004045A JP 2014004045 A JP2014004045 A JP 2014004045A JP 2015133611 A JP2015133611 A JP 2015133611A
Authority
JP
Japan
Prior art keywords
child
crying
notification
crying behavior
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014004045A
Other languages
English (en)
Other versions
JP6347347B2 (ja
Inventor
昌裕 塩見
Masahiro Shiomi
昌裕 塩見
敬宏 宮下
Takahiro Miyashita
敬宏 宮下
萩田 紀博
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2014004045A priority Critical patent/JP6347347B2/ja
Publication of JP2015133611A publication Critical patent/JP2015133611A/ja
Application granted granted Critical
Publication of JP6347347B2 publication Critical patent/JP6347347B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【構成】通知システム(100)は、天井に設けられた複数の距離画像センサ12および壁などに設けられた複数のマイク14などを含む。空間内の子どもの位置情報は距離画像センサ12から出力される奥行情報から得ることができ、空間内で発生する音の音情報はマイク14を利用して取得される。通知システムの中央制御装置(16)は、子どもの位置情報および空間内で発生した音の音情報などに基づいて、子どもの泣き行動を予測および認識する。そして、泣き行動が予測または認識されると、その結果は保育者が所持する携帯端末10に通知される。
【効果】保育者は子どもが泣き行動を行う前に子どもをなだめることが可能になるため、保育者の負担を軽減することが出来る。
【選択図】図1

Description

この発明は、通知システム、通知プログラム、通知方法および通知装置に関し、特にたとえば、子どもの行動に関する情報を通知する、通知システム、通知プログラム、通知方法および通知装置に関する。
背景技術の一例が特許文献1に開示されている。この特許文献1の情報処理装置は、ユーザが視聴しているコンテンツのメタ情報からユーザの感情を予測し、予測結果とユーザの表情やジェスチャーなどとから、ユーザの感情が認識される。そして、認識されたユーザの感情に基づいて、ユーザには情報が推薦される。
特開2007-41988号公報[G06T 7/20]
ところが、特許文献1の情報処理装置では、ユーザの感情を認識するためには、ユーザにコンテンツを視聴させ続けなければならない。たとえば、この情報処理装置によって子どもの感情を認識しようとしても、子どもの興味対象は変化しやすいため、子どもの感情が適切に認識されにくい。
それゆえに、この発明の主たる目的は、新規な、通知システム、通知プログラム、通知方法および通知装置を提供することである。
この発明の他の目的は、子どもの感情の変化による保育者の負担を軽減することが出来る、通知システム、通知プログラム、通知方法および通知装置を提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、子どもが居る空間内で発生する音の音情報を取得する第1取得手段、音情報に基づいて子どもが泣き行動を行うかを予測する予測手段、および子どもが泣き行動を行うと予測されたとき、予測結果を通知する第1通知手段を備える、通知システムである。
第1の発明では、通知システム(100:実施例において対応する部分を例示する参照符号。以下、同じ。)では、第1取得手段(80,S5)は、たとえば自宅などの子どもが居る空間の中に設けられたマイク(14)などを利用して、その空間内で発生する音の音情報を取得する。予測手段(80,S43)は、空間の中で発生した音の音情報のうち、たとえば音の音量の最大値などに基づいて、子どもが泣き行動を行うかを予測する。たとえば、大きな音に驚いて泣くなどの泣き行動が予測されると、第1通知手段(80,S47)は予測結果を通知する。
第1の発明によれば、保育者は子どもが泣き行動を行う前に子どもをなだめることが可能になるため、保育者の負担を軽減することが出来る。
第2の発明は、第1の発明に従属し、空間内の子どもの位置情報を取得する第2取得手段をさらに備え、予測手段は、子どもの位置情報および音情報に基づいて子どもの泣き行動を予測する、請求項1記載の通知システムである。
第2の発明では、第2取得手段(80,S41)は、空間の天井に設けられる複数の距離画像センサ(12)を利用して、空間内の子どもの位置情報を取得する。そして、子どもの位置情報および空間内で発生した音の音情報に基づいて、予測手段は子どもが泣き行動を行うかを予測する。
第2の発明によれば、子どもの位置情報も利用して子どもの泣き行動が予測されるため、予測の精度が向上する。
第3の発明は、第1の発明または第2の発明に従属し、音情報は、空間内で発生した音の音量の最大値を含み、予測手段は、音量の最大値に基づいて、子どもが泣き行動を行うかを予測する。
第3の発明では、たとえば、急に大きな音が発生すると子どもが泣き行動を行う可能性が高くなる。そのため、予測手段は、空間内で発生した音の最大値に基づいて、子どもが泣き行動を行うかを予測する。
第3の発明によれば、空間内で発生した音の最大値を利用して、子どもの泣き行動を予測することが出来る。
第4の発明は、第1の発明ないし第3の発明のいずれかに従属し、音情報に基づいて子どもが行う泣き行動を認識する認識手段、および、子どもの泣き行動が認識されたとき、認識結果を通知する第2通知手段をさらに備える。
第4の発明では、認識手段(80,S35)は、空間の中で発生している音の音情報のうち、たとえば音の音量の平均および周波数などに基づいて、泣き行動を認識する。泣き行動が認識されると、第2通知手段(80,S39)は泣き行動の認識結果を通知する。
第4の発明によれば、保育者が泣き行動を行っている子どもを認識できていない状態でも、保育者は子どもの元にすぐに向かうことが出来る。
第5の発明は、第4の発明に従属し、認識手段は、子どもの泣き行動と共に、その泣き行動の原因も認識し、通知手段は、子どもの泣き行動が認識されたとき、泣き行動の原因を通知する。
第5の発明では、子どもが泣き行動を行うと、認識手段はその泣き行動の原因を認識する。そして、子どもの泣き行動が認識されると、通知手段は泣き行動の原因も通知する。
第5の発明によれば、保育者は、子どもが泣き行動を行う原因を知ることが出来るため、子どもの気持ちに寄り添って子どもをなだめることが可能となる。
第6の発明は、通知システムのプロセッサ(80)を、子どもが居る空間内で発生する音の音情報を取得する取得手段(S5)、音情報に基づいて子どもが泣き行動を行うかを予測する予測手段(S43)、および子どもが泣き行動を行うと予測されたとき、予測結果を通知する通知手段(S47)として機能させる、通知プログラムである。
第6の発明でも、第1の発明と同様、保育者は子どもが泣き行動を行う前に子どもをなだめることが可能になるため、保育者の負担を軽減することが出来る。
第7の発明は、通知システムのプロセッサ(80)が、子どもが居る空間内で発生する音の音情報を取得する取得ステップ(S5)、音情報に基づいて子どもが泣き行動を行うかを予測する予測ステップ(S43)、および子どもが泣き行動を行うと予測されたとき、予測結果を通知する通知ステップ(S47)を実行する、通知方法である。
第7の発明でも、第1の発明と同様、保育者は子どもが泣き行動を行う前に子どもをなだめることが可能になるため、保育者の負担を軽減することが出来る。
第8の発明は、子どもが居る空間内で発生する音の音情報を取得する取得手段(80,S5)、音情報に基づいて子どもが泣き行動を行うかを予測する予測手段(80,S43)、および子どもが泣き行動を行うと予測されたとき、予測結果を通知する通知手段(80,S47)を備える、通知装置である。
第8の発明でも、第1の発明と同様、保育者は子どもが泣き行動を行う前に子どもをなだめることが可能になるため、保育者の負担を軽減することが出来る。
第9の発明は、子どもが居る空間内で発生する音の音情報を取得する取得手段(80,S5)、音情報に基づいて子どもが行う泣き行動を認識する認識手段(80,S35)、および子どもの泣き行動が認識されたとき、認識結果を通知する通知手段(80,S39)を備える、通知システムである。
第9の発明でも、第4の発明と同様、保育者が泣き行動を行っている子どもを認識できていなくても、保育者は子どもの元にすぐに向かうことが出来る。
第10の発明は、第9の発明に従属し、認識手段は、子どもの泣き行動と共に、その泣き行動の原因も認識し、通知手段は、子どもの泣き行動が認識されたとき、泣き行動の原因を通知する。
第10の発明でも、第5の発明と同様、保育者は、子どもが泣き行動を行う原因を知ることが出来るため、子どもの気持ちに寄り添って子どもをなだめることが可能となる。
第11の発明は、第10の発明に従属し、音情報は、空間内で発生する音の周波数をさらに含み、認識手段は、周波数が所定値より大きいとき、子どもの泣き行動は痛みを感じたため行われたと認識する。
第11の発明では、音の周波数は、たとえば、子どもが泣き行動を行うときに生じる泣き声の周波数である。泣き声の周波数は、子どもが泣き行動を行う原因によって変化する。そして、認識手段は、周波数が所定値より大きいとき、子どもの泣き行動は痛みを感じたため行われたと認識する。
第11の発明によれば、空間内で発生する音の周波数を利用して、子どもの泣き行動を認識することが出来る。
この発明によれば、保育者の負担を軽減することが出来る。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の通知システムの概要を示す図解図である。 図2は図1に示す通知システムの構成の一例を示す図解図である。 図3は図1に示す距離画像センサの電気的な構成の一例を示すブロック図である。 図4は図2に示す中央制御装置の電気的な構成の一例を示すブロック図である。 図5は図1に示す通知システムが利用される空間の地図の一例を示す図解図である。 図6は図4に示す中央制御装置のメモリに記憶される環境データテーブルの構成の一例を示す図解図である。 図7は図4に示す中央制御装置によって認識される泣き行動の原因の一覧を示す図解図である。 図8は図4に示す中央制御装置から通知されるメッセージの一例を示す図解図であり、図8(A)は泣き行動が認識されたときに通知されるメッセージの一例を示し、図8(B)は泣き行動が予測されたときに通知されるメッセージの一例を示す。 図9は図4に示す中央制御装置のメモリのメモリマップの一例を示す図解図である。 図10は図4に示す中央制御装置のプロセッサの取得処理の一例を示すフロー図である。 図11は図4に示す中央制御装置のプロセッサの通知処理の一例を示すフロー図である。
図1を参照して、この実施例の通知システム100は、子どもが自由に移動する家や保育園などの空間(環境)で利用される。空間内には、テレビやソファおよびテーブルセットなどの家具が置かれており、子どもは空間の中を自由に移動することが出来る。親や保育士などの保育者も空間内におり、子どもを保育したり、家事などを行ったりしている。また、保育者は携帯端末10を所持しており、空間内の天井には複数の距離画像センサ12(12a,12b,…)が設けられ、壁には複数のマイク14(14a,14b,…)が設けられている。
携帯端末10は、スマートフォン(smartphone)とも呼ばれる携帯電話機である。通知システム100は、携帯端末10に対してメッセージを送信(通知)し、携帯端末10はメッセージを受信すると、音声または振動によってメッセージの受信を保育者に知らせる。そして、保育者は通知システム100からのメッセージを、携帯端末10を利用して確認することが出来る。なお、他の実施例では、ipod touch(登録商標)やPDAなどのデータ端末が、携帯端末10として採用されてもよい。
複数の距離画像センサ12は、子どもの位置情報を検出することを目的として、空間の天井に設けられている。複数のマイク14は、空間内で発生する音(雑音)を集音することを目的として、空間の壁に設けられている。
通知システム100は、各距離画像センサ12および各マイク14を利用して、子どもが行う泣き行動を予測および認識する。そして、予測および認識の結果が、携帯端末10に対して通知される。
なお、実施例の空間は保育者と子どもとが居る家であるが、これに限らず幼稚園、学童保育所などでも通知システム100は利用可能である。
また、図1では簡単のため、マイク14は2つしか示していないが、さらに多くのマイク14が空間内に置かれてもよいし、マイク14が1つであってもよい。そして、保育者(携帯端末10)は1人しか示していないが、空間内には2人以上の保育者が居てもよい。
また、距離画像センサ12a,12b,…を区別する必要がない場合、単に「距離画像センサ12」と言う。そして、マイク14a,14b,…を区別する必要が無い場合、単に「マイク14」と言う。
図2を参照して、通知システム100の中央制御装置16は、通知装置とも呼ばれ、距離画像センサ12およびマイク14などが接続される。また、中央制御装置16は、ネットワーク1000を介して携帯端末10と無線通信を行う。中央制御装置16は、第1時間(たとえば、0.05秒)毎に、距離画像センサ12およびマイク14が出力するセンサ情報を取得する。そして、中央制御装置16は、取得した各センサの情報から、子どもの位置情報および空間内で発生した音の音情報などを含む環境データ(図6参照)をテーブルに記憶する。
図3は距離画像センサ12の電気的な構成を示すブロック図である。図3を参照して、距離画像センサ12は制御IC60などを含む。制御IC60には、A/D変換器62、カメラ66、深度センサ68、深度カメラ70およびI/O72などが接続される。
制御IC60は、キャッシュメモリなどを有し、距離画像センサ12の動作を制御する。たとえば、制御IC60は、中央制御装置16からの命令に従って動作し、検出した結果を中央制御装置16に送信する。
A/D変換機62にはマイク64が接続され、マイク64からの音声信号はA/D変換機62でディジタル音声信号に変換され、制御IC60に入力される。また、マイク64によって集音された音は、マイク14によって集音された音と共に、空間内の雑音などの音量を計測するために利用される。
カメラ66は、距離画像センサ12が設置された空間のRGB情報、つまりカラー画像を撮影するためのカメラである。また、カメラ66は、後述する深度カメラ70が撮影している空間と略同じ空間を撮影することが可能なように、距離画像センサ12に設けられている。
深度センサ68は、たとえば赤外線プロジェクタであり、深度カメラ70は、たとえば赤外線カメラである。深度センサ68は、たとえば赤外線によるレーザ光を距離画像センサ12の正面に照射する。空間には照射されたレーザ光によって特殊なパターンが描画され、深度カメラ70は描画されたパターンを撮影する。そして、撮影された画像は制御IC60に入力され、制御IC60はその画像を解析することで、レーザ光が照射された空間の奥行(depth)情報を計測する。
I/O72は、入力/出力の制御が可能なディジタルポートであり、出力ポートからは音声信号、RGB情報および奥行情報が出力され、中央制御装置16に与えられる。一方、中央制御装置16からは制御信号が出力され、入力ポートに与えられる。
なお、距離画像センサ12は、RGB情報および奥行情報を出力することからRGB−Dセンサと呼ばれることもある。
また、実施例の距離画像センサ12には、Microsoft(登録商標)社製のKinect(登録商標)センサと呼ばれる製品が採用されている。ただし、他の実施例では、ASUS(登録商標)社製のXtion、パナソニック(登録商標)社製の3次元距離画像センサであるD−IMager(登録商標)などが距離画像センサ12として採用されてもよい。
図4は中央制御装置16の電気的な構成を示すブロック図である。図4を参照して、中央制御装置16は、距離画像センサ12およびプロセッサ80などを含む。プロセッサ80は、マイクロコンピュータ或いはCPUと呼ばれることもある。プロセッサ80には、複数の距離画像センサ12、メモリ82、A/D変換機84、出力装置86、入力装置88および通信LANボード90などが接続される。
距離画像センサ12は、上述したように奥行情報などを出力する。この奥行情報には、空間に居る子ども(人)の形状および人までの距離が含まれている。たとえば、人が天井に設けられた距離画像センサ12によってセンシングされると、人を上から見た状態の頭部および両肩の形状と、頭部および両肩までの距離が奥行情報として得られる。
また、空間には35個の距離画像センサ12が所定の位置(既知)に設置されており、プロセッサ80は、各々から奥行情報を取得して、空間(ワールド座標系)における人の位置情報(たとえば、重心など特徴点の位置座標(X,Y,Z))を計算することが出来る。
また、距離画像センサ12はマイク64を有するため、中央制御装置16では、音情報が入力される距離画像センサ12の位置から、音の発生源を推定することも出来る。
なお、他の実施例では、距離画像センサ12ではなく、2次元または3次元のLRFを利用して、人の位置および姿勢が検出されてもよい。
プロセッサ80は中央制御装置16の動作を制御し、日時情報を出力するRTCを含む。メモリ82は、ROM,HDDおよびRAMを含む。ROMおよびHDDには、中央制御装置16の動作を制御するための制御プログラムなどが予め記憶される。また、RAMは、プロセッサ80のワークメモリやバッファメモリとして用いられる。
A/D変換機84には、複数のマイク14a,14bが接続される。各マイク14からの音声信号はA/D変換機84でディジタル音声信号に変換され、プロセッサ80に入力される。そして、マイク14によって集音された音は、マイク64によって集音された音と共に、空間内の雑音などの音量を計測するために利用される。なお、他の実施例では、各マイク14がそれぞれ独立して、プロセッサ80に接続されてもよい。この場合、プロセッサ80は、音が入力されるマイク14を特定することが可能となる。
出力装置86は、たとえばディスプレイなどであり、入力装置88は、たとえばマウスやキーボードである。そして、保育者や、空間の管理人(たとえば、園長)は、中央制御装置16の状態を、出力装置86および入力装置88を利用して確認および利用することが出来る。
通信LANボード90は、たとえばDSPで構成され、プロセッサ80から与えられた送信データを無線通信装置92に与え、無線通信装置92は送信データを、ネットワーク1000を介して携帯端末10に送信する。また、通信LANボード90は、無線通信装置92を介してデータを受信し、受信したデータをプロセッサ80に与える。
図5は空間の地図の一例を示す図解図である。この地図は、図1に示す空間と対応しており、テレビ(テレビ台を含む)、ソファおよびテーブルセットが配置されている位置を示している。また、地図上には示されていないが、各家具には高さ情報(Z)が付与されている。たとえば、テレビには床からテレビ台の表面までの距離が高さ情報として付与され、ソファには床から座面までの距離が高さ情報として付与され、テーブルセットには床から椅子の座面までの高さと床からテーブル面までの高さとが付与される。そして、これらの情報は、地図データとして中央制御装置16のメモリ82に記憶される。
図6は環境データテーブルの構成の一例を示す図解図である。環境データとは、ある日時における子どもの位置情報と、空間内で発生した音の分析結果と、子どもの行動に関する時間とを含むデータである。そして、環境データテーブルには、1行毎にこれらの情報を含む環境データが記憶される。図6を参照して、環境データテーブルは、日時、子ども、音声、食事をしていない時間および起き続けている時間の列を含む。また、音情報の列には、平均、最大および周波数の列が含まれる。
日時の列には、環境データが取得された日時が記憶される。また、記憶される日時の形式としては、「yy」が「年」を示し、「mm」が「月」を示し、「dd」が「日」を示し、「H」が「時」を示し、「M」が「分」を示し、「S」が「秒」を示す。
子どもの列には、子どもの位置として「X,Y,Z」が記憶される。たとえば、地図上で子どもの位置情報を確認することで、子どもが人や物と衝突したり、落下したりしたかを判断することが可能となる。また、子どもの位置情報から、子どもが眠っているなどの理由で動きが無いことを判断することも出来る。
音情報の列における平均の列には、各距離画像センサ12および各マイク14から取得される音の音量の平均として「AB」が記憶される。また、音情報の列における最大の列には、各距離画像センサ12および各マイク14から取得された音声の音量の最大として「MB」が記憶される。そして、音情報の列における周波数の列には、音量の平均における周波数として「f」が記憶される。
音の平均「AB」は空間内の雑音の音量の平均または子どもの泣き声の音量の平均を示すことになる。たとえば、常にうるさい状況では子どもが怖がり泣き行動を起こしやすくなるため、そのような状況であるかを判断するために利用される。また、子どもが泣き行動を行っている場合は、泣き行動の原因によって泣き声の音量が変化するため、泣き行動の原因を判断するために利用される。
音の最大「MB」は空間内の雑音の音量の最大または子どもの泣き声の音量の最大を示すことになる。たとえば、急に大きな音が発生すると子どもが泣き行動を行いやすくなるため、そのような状況であるかを判断するために利用される。また、子どもが泣き行動を行っている場合は、泣き行動の原因によって泣き声の音量が変化するため、音の最大「MB」は泣き行動の原因を判断するために利用される。
音の周波数「f」は子どもが泣き行動を行っている際の泣き声の周波数を示す。たとえば、子どもの泣き声は泣き行動の原因によって周波数が異なることがある。そのため、音の周波数「f」は泣き行動の原因を判断するために利用される。
なお、音量の平均「AB」および音の最大「MB」の単位は「dB」であり、音の周波数「f」の単位は「Hz」である。
食事をしていない時間の列には、子どもが最後に食事をしてからの時間として「FT」が記憶される。時間「FT」は子どもが食事を行ったと判断されるまでは、対応する変数がカウントされ続け、時間「FT」を環境データテーブルに記憶するときに、対応する変数に基づいて時間「FT」が記憶される。また、実施例では、子どもが食事を行ったかは、保育者から通知され、この通知がされたときに上述した変数が初期化される。なお、他の実施例では、中央制御装置16が、子どもの位置情報および時刻などから、子どもが食事を行ったかを判断してもよい。
起き続けている時間の列には、子どもが起きてからの時間として「WT」が記憶される。時間「WT」は子どもが寝たと判断されるまでは、対応する変数がカウントされ続け、時間「WT」を環境データテーブルに記憶するときに、対応する変数に基づいて時間「WT」が記憶される。また、実施例では、子どもが寝たかは、子どもの位置情報の変化に基づいて判断され、寝たと判断されたときに上述した変数が初期化される。なお、他の実施例では、子どもが寝たことは保育者からの通知に基づいて判断されてもよい。
ここで、子どもの位置情報と、音情報における音の平均および周波数と、食事をしていない時間と、起き続けている時間とは、子どもの泣き行動を認識するための情報であり、第1判定情報と呼ばれることがある。また、子どもの位置情報および音情報における音の最大は、子どもの泣き行動を予測するための情報であるため、第2判定情報と呼ばれることがある。
中央制御装置16は、環境データテーブルに対して、第1時間毎にこのような環境データを記憶する。そして、中央制御装置16は、第2時間毎に子どもの泣き行動の認識および予測を行う。
図7は泣き行動の具体的な原因を示す図解図である。図7を参照して、実施例では泣き行動と共に、泣き行動の原因も認識される。そして、子どもの泣き行動の原因としては、「空腹」、「眠たい」、「驚いた」および「痛い」などが含まれる。泣き行動の原因が「空腹」と認識されている場合、子どもはお腹を空かせたため泣き行動を行っている可能性が高い。泣き行動の原因が「眠たい」と認識されている場合、子どもは眠たくなったため泣き行動を行っている可能性が高い。泣き行動の原因が「驚いた」と認識されている場合、子どもは驚いたため泣き行動を行っている可能性が高い。泣き行動の原因が「痛い」の場合、子どもは痛みを感じているため泣き行動を行っている可能性が高い。
実施例では、子どもが泣き行動が行ったときの第1判定情報に対して原因をラベル付けして教師データとし、SVM(Support vector machine)などの機械学習手法によって教師データを学習する。その結果、泣き行動を認識する判別モデルが作成される。この判別モデルに対して、第2時間分の未知の第1判別情報を入力すると、泣き行動の原因と、泣き行動を行っているかを示す確率とが少なくとも1つ以上得られる。そして、確率が第1閾値より大きいとき、泣き行動が行われていると認識され、その泣き行動の原因が出力される。
たとえば、泣き行動の判別モデルに対して、泣き行動が行われているときの第1判定情報が未知データとして入力されたときに、確率が90%の「空腹」と確率が80%の「痛い」とが出力された場合、第1閾値が85%であれば、確率が第1閾値よりも大きい「空腹」が原因で泣き行動が行われていると認識される。また、第1閾値が75%であれば、確率が最も高い「空腹」が原因で泣き行動が行われていると認識される。そして、また、第1閾値が95%であれば、それぞれの確率は第1閾値よりも小さいので、泣き行動は行われていないとの認識結果が出力される。
図8(A)を参照して、たとえば「空腹」が原因で泣き行動が行われているとの認識結果が出力された場合、中央制御装置16は保育者が所持する携帯端末10に対して、子どもが「空腹」で泣き行動を行っている旨を伝えるメッセージを送信する。これにより、たとえば保育者が子どもの近くにおらず、泣き行動を行っている子どもを認識できていない状態でも、保育者は子どもの元にすぐに向かうことが出来る。特に、保育者は、子どもが泣き行動を行う原因を知ることが出来るため、子どもの気持ちに寄り添って子どもをなだめることが可能となる。
また、実施例では、子どもが泣き行動が行われる所定時間前の第2判定情報を教師データとし、SVMなどの機械学習手法によって教師データを学習する。その結果、所定時間内に起きる泣き行動を予測する判別モデルが作成される。この判別モデルに対して第2時間分の未知の第2判定情報を入力すると、所定時間内に泣き行動が行われる確率が予測結果として出力される。
図8(B)を参照して、たとえば予測結果として出力された確率が第2閾値より大きい場合、中央制御装置16は、保育者が所持する携帯端末10に対して、所定時間内に泣き行動が行われることを伝えるメッセージを送信する。これにより、保育者は、子どもが泣き行動を行う前に子どもをなだめることが可能になるため、保育者の負担を軽減することが出来る。特に、実施例では、空間内で発生する音の音情報に加えて、子どもの位置情報も利用して子どもの泣き行動が予測されるため、予測の精度が向上する。
なお、実施例では、泣き行動の認識および予測は、環境データを取得するために必要な第1時間よりも長い第2時間毎に認識される。つまり、泣き行動を認識および予測するために必要な環境データ(第1判定情報および第2判定情報)が取得されてから泣き行動が認識および予測される。これにより、子どもの泣き行動を正確に認識および予測することが出来る。
上述では実施例の特徴を概説した。以下では、図9に示すメモリマップ、図10および図11に示すフロー図を用いて、実施例について詳細に説明する。
図9は図4に示す中央制御装置16のメモリ82のメモリマップの一例を示す図解図である。図9に示すように、メモリ82はプログラム領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、中央制御装置16を動作させるためのプログラムとして、各センサから情報を取得し、環境データテーブルに環境データを記憶するための取得プログラム310および泣き行動を認識および予測しそれらの結果を通知するための通知プログラム312などが記憶される。なお、図示は省略するが、中央制御装置16を動作させるためのプログラムには、通知するメッセージを作成するためのプログラムなども含まれる。
データ記憶領域304には、環境データテーブル330および地図データ332などが記憶されると共に、食事フラグ334および睡眠フラグ336などが設けられる。環境データテーブル330は、たとえば図6に示す構成のテーブルであり、環境データが記憶される。地図データ332は、たとえば図5に示すように家具が配置される位置を示す地図のデータである。
食事フラグ334は、食事をしていない時間「FT」を計測するときに利用されるフラグである。たとえば、食事フラグ334は、1ビットのレジスタで構成される。食事フラグ334がオン(成立)されると、レジスタにはデータ値「1」が設定される。一方、食事フラグ334がオフ(不成立)されると、レジスタにはデータ値「0」が設定される。食事フラグ334は、たとえば保育者によって子どもが食事を行ったと通知されるとオンとなる。食事フラグ334がオンにされると、食事をしていない時間「FT」をカウントするための変数が初期化され、食事をしていない時間「FT」の計測が開始される。
睡眠フラグ336は、起き続けている時間「WT」を計測するときに利用されるフラグである。睡眠フラグ336は、たとえば子どもが就寝したと判断されるとオンとなる。睡眠フラグ336がオンにされると、起き続けている時間「WT」と対応する変数のカウントが停止する。そして、子どもが起床したと判断されるとオフとなり、起き続けている時間「WT」と対応する変数が初期化され、起き続けている時間の計測が開始される。
なお、図示は省略するが、データ記憶領域304には、様々な計算の結果を一時的に格納するバッファや、中央制御装置16の動作に必要な他のカウンタやフラグなども設けられる。
中央制御装置16のプロセッサ80は、Linux(登録商標)ベースのOSや、その他のOSの制御下で、図10に示す取得処理および図11に示す通知処理などを含む、複数のタスクを処理する。
図10は取得処理のフロー図である。中央制御装置16の電源がオンにされ、取得処理の実行命令が出されると、取得処理が実行される。なお、取得処理の実行命令は、第1時間毎に出される。
取得処理が実行されると、プロセッサ80はステップS1で、現在時刻を取得する。たとえば、プロセッサ80が有するRTCから現在時刻を取得する。続いて、ステップS3でプロセッサ80は、距離画像センサ12の情報を取得する。つまり、プロセッサ80は、距離画像センサ12が出力する奥行情報および音声信号を取得する。
続いて、ステップS5でプロセッサ80は、マイク14から音声信号を取得する。つまり、プロセッサ80は、音情報を算出するために、マイク14によって集音された音声の音声信号を取得する。続いて、ステップS7でプロセッサ80は、各時間を算出する。つまり、食事をしていない時間「FT」および起き続けている時間「WT」のそれぞれが、対応する変数に基づいて算出される。なお、ステップS5の処理を実行するプロセッサ80は第1取得手段として機能する。
続いて、ステップS9でプロセッサ80は、環境データを作成する。つまり、奥行き情報から子どもの位置情報が計算され、複数のマイク14および距離画像センサ12のマイク64から音声(雑音)の音量の平均、最大および周波数が計算される。そして、これらの値とステップS7で算出された各時間とが1つの環境データとされる。
続いて、ステップS11でプロセッサ80は、現在時刻および環境データを記憶する。つまり、ステップS1で取得された現在時刻の情報に環境データが関連付けられ、環境データテーブル330に記憶される。そして、ステップS11の処理が終了すると、プロセッサ80は取得処理を終了する。
図11は通知処理のフロー図である。中央制御装置16の電源がオンにされ、通知処理の実行命令が出されると、通知処理が実行される。なお、通知処理の実行命令は、第2時間毎に出される。
通知処理が実行されると、ステップS31でプロセッサ80は、空間に子どもが居るか否かを判断する。つまり、距離画像センサ12によって子どもの位置が検出されているかが判断される。ステップS31で“NO”であれば、つまり空間に子どもがいなければ、プロセッサ80は通知処理を終了する。
ステップS31で“YES”であれば、つまり空間の中で子どもの位置が検出されていれば、ステップS33でプロセッサ80は、現在時刻から第2時間分の第1判定情報を取得する。つまり、子どもの位置情報と、音情報における音の平均および周波数と、食事をしていない時間と、起き続けている時間とが、環境データテーブル330から読み出される。続いて、ステップS35でプロセッサ80は、泣き行動認識処理を実行する。つまり、第2時間分の第1判定情報が、泣き行動を認識する判定モデルに入力される。なお、ステップS35の処理を実行するプロセッサ80は認識手段として機能する。
続いて、ステップS37でプロセッサ80は、泣き行動が行われているか否かを判断する。つまり、プロセッサ80は、第1閾値よりも大きい確率の泣き行動の原因が上記判定モデルから出力されたかを判断する。ステップS37で“YES”であれば、つまり子どもが泣き行動を行っていると認識されると、ステップS39でプロセッサ80は、泣き行動が行われていることを通知する。たとえば、図8(A)に示すように、泣き行動の原因を知らせるメッセージが、中央制御装置16から携帯端末10に送信される。なお、ステップS39の処理を実行するプロセッサ80は第2通知手段として機能する。
一方、ステップS37で“NO”であれば、たとえば泣き行動が行われていないとの認識結果が出力されると、ステップS41でプロセッサ80は、現在時刻から第2時間分の第2判定情報を取得する。つまり、子どもの位置情報および音情報における音の最大が環境データテーブル330から読み出される。続いて、ステップS43でプロセッサ80は、泣き行動予測処理を実行する。たとえば、第2時間分の第2判定情報が、泣き行動を予測する判定モデルに入力される。なお、ステップS41の処理を実行するプロセッサ80は第2取得手段として機能する。また、ステップS43の処理を実行するプロセッサ80は予測手段として機能する。
続いて、ステップS45でプロセッサ80は、予測結果の確率が第2閾値よりも大きいか否かを判断する。つまり、所定時間後に泣き行動が行われる確率が、第2閾値よりも大きいかが判断される。ステップS45で“YES”であれば、つまり所定時間後に泣き行動が行われる確率が第2閾値よりも大きければ、ステップS47でプロセッサ80は、所定時間内に泣き行動が行われることを通知する。たとえば、図8(B)に示すように、所定時間内に泣き行動が行われることを知らせるメッセージが、中央制御装置16から携帯端末10に送信される。なお、ステップS47の処理を実行するプロセッサ80は第1通知手段として機能する。
そして、ステップS45で“NO”、つまり予測結果の確率が第2閾値よりも小さいか、ステップS47の処理が終了すると、プロセッサ80は通知処理を終了する。
なお、実施例では、機械学習手法としてSVMを採用したが、他の実施例では、重回帰分析、ニューラルネットワークまたはC4.5などのアルゴリズムが採用されてもよい。たとえば、重回帰分析が採用された場合、第1判定情報または第2判定情報の各値を説明変数として係数が計算される。この場合に、泣き行動の認識結果の確率をPとし、子どもが落下したり衝突したりした際の音の音量をXとした場合、重回帰分析によって数1の数式が得られる。
[数1]
P=aX
このとき、音量Xが「80dB」の場合、係数aは「a=1/80」となり、音量Xが「80」のときに、「P=1」つまり「100%」となる。
また、その他の実施例では、機械学習は利用せずに、単純な閾値処理としてもよい。空間の中の音の平均が高い状態では、子どもが怖がって泣き行動を行う可能性が高い。そのため、音の平均が第1所定値よりも高い場合は、所定時間内に泣き行動が行われると予測するようにしてもよい。つまり、空間内で発生した音の最大値を利用して、子どもの泣き行動を予測することが出来る。
さらに、子どもが痛みを感じているときの泣き声の周波数は第2所定値より大きいことが多い。そのため、音の周波数が第2所定よりも大きい場合は、痛みを感じて泣き行動が行われていると認識されるようにしてもよい。つまり、空間内で発生した音の周波数を利用して、子どもの泣き行動を認識することが出来る。
なお、さらにその他の実施例では、子どもの位置情報に加えて、子どもの姿勢(たとえば、頭部の向き(θ)および両肩の向き(θ))が算出されてもよい。
また、他の実施例の環境データには、子どもの顔認識の結果(表情)、音の低音の強度、テレビなどから出力されるコンテンツの内容および子どもの姿勢などが含まれていてもよい。また、空間内で発生する衝突や落下などを識別可能である場合は、そのときの音の音情報などが含まれていてもよい。そして、泣き行動を認識する際には、子どもの表情、子どもの姿勢、音の最大なども利用されてもよい。また、泣き行動を予測する際には、子どもの表情、子どもの位置情報の変化(落下による、高さ方向の変化)、音の平均、低音の強度、衝突・落下時の音の音量、コンテンツの内容なども利用されてもよい。
また、泣き行動を認識するための第1閾値および泣き行動を予測するための第2閾値は、保育者によって任意に設定されてもよいし、中央制御装置16によって自動的に設定されてもよい。
また、携帯端末10に送信されるメッセージは、Eメールによって送信されてよいし、専用のソフトウェアを利用して送信されてもよい。また、メッセージを送信する先は、携帯端末10だけに限らずPCなどの端末などに送信されてもよい。また、文字によるメッセージに代えて、泣き行動が認識または予測された時間から第2時間前までの状況を伝える映像や音声が、携帯端末10に送信されてもよい。
また、泣き行動の原因は、実施例のものとは異なっていてもよいし、数が異なっていてもよい。
また、その他の実施例では、空間の音情報だけを利用して、泣き行動が認識または予測されてもよい。また、通知処理では、泣き行動を予測して通知するだけでもよいし、泣き行動を認識して通知するだけでもよい。さらに、泣き行動が予測された後に、泣き行動が認識されるようにしてもよい。
また、上述の実施例では、閾値に対して「より大きい」の言葉を用いたが「閾値より大きい」とは「閾値以上」の意味も含まれる。また、「閾値よりも小さい」とは「閾値以下」および「閾値未満」の意味も含まれる。
また、本実施例で説明した複数のプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して本実施例と同等の構成のシステムに配信されてもよい。また、CD, DVD, BD (Blu-ray(登録商標) Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体にこれらのプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、上記複数のプログラムが、本実施例と同等の構成のシステムに適用された場合、本実施例と同等の効果が得られる。
そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。
10 …携帯端末
12a,12b …距離画像センサ
14a,14b …マイク
16 …中央制御装置
64 …マイク
80 …プロセッサ
82 …メモリ
100 …通知システム
1000 …ネットワーク

Claims (11)

  1. 子どもが居る空間内で発生する音の音情報を取得する第1取得手段、
    前記音情報に基づいて前記子どもが泣き行動を行うかを予測する予測手段、および
    前記子どもが泣き行動を行うと予測されたとき、予測結果を通知する第1通知手段を備える、通知システム。
  2. 前記空間内の子どもの位置情報を取得する第2取得手段をさらに備え、
    前記予測手段は、前記子どもの位置情報および前記音情報に基づいて前記子どもが泣き行動を行うかを予測する、請求項1記載の通知システム。
  3. 前記音情報は、前記空間内で発生した音の音量の最大値を含み、
    前記予測手段は、前記音量の最大値に基づいて、前記子どもが泣き行動を行うかを予測する、請求項1または2記載の通知システム。
  4. 前記音情報に基づいて前記子どもが行う泣き行動を認識する認識手段、および、
    前記子どもの泣き行動が認識されたとき、認識結果を通知する第2通知手段をさらに備える、請求項1ないし3のいずれかに記載の通知システム。
  5. 前記認識手段は、前記子どもの泣き行動と共に、その泣き行動の原因も認識し、
    前記通知手段は、前記子どもの泣き行動が認識されたとき、前記泣き行動の原因を通知する、請求項4記載の通知システム。
  6. 通知システムのプロセッサを、
    子どもが居る空間内で発生する音の音情報を取得する取得手段、
    前記音情報に基づいて前記子どもが泣き行動を行うかを予測する予測手段、および
    前記子どもが泣き行動を行うと予測されたとき、予測結果を通知する通知手段として機能させる、通知プログラム。
  7. 通知システムのプロセッサが、
    子どもが居る空間内で発生する音の音情報を取得する取得ステップ、
    前記音情報に基づいて前記子どもが泣き行動を行うかを予測する予測ステップ、および
    前記子どもが泣き行動を行うと予測されたとき、予測結果を通知する通知ステップを実行する、通知方法。
  8. 子どもが居る空間内で発生する音の音情報を取得する取得手段、
    前記音情報に基づいて前記子どもが泣き行動を行うかを予測する予測手段、および
    前記子どもが泣き行動を行うと予測されたとき、予測結果を通知する通知手段を備える、通知装置。
  9. 子どもが居る空間内で発生する音の音情報を取得する取得手段、
    前記音情報に基づいて前記子どもが行う泣き行動を認識する認識手段、および
    前記子どもの泣き行動が認識されたとき、認識結果を通知する通知手段を備える、通知システム。
  10. 前記認識手段は、前記子どもの泣き行動と共に、その泣き行動の原因も認識し、
    前記通知手段は、前記子どもの泣き行動が認識されたとき、前記泣き行動の原因を通知する、請求項9記載の通知システム。
  11. 前記音情報は、前記空間内で発生する音の周波数をさらに含み、
    前記認識手段は、前記音の周波数に基づいて、前記子どもの泣き行動が痛みを感じたため行われたと認識する、請求項10記載の通知システム。
JP2014004045A 2014-01-14 2014-01-14 通知システム、通知プログラム、通知方法および通知装置 Active JP6347347B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014004045A JP6347347B2 (ja) 2014-01-14 2014-01-14 通知システム、通知プログラム、通知方法および通知装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014004045A JP6347347B2 (ja) 2014-01-14 2014-01-14 通知システム、通知プログラム、通知方法および通知装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015037517A Division JP6340626B2 (ja) 2015-02-27 2015-02-27 通知システム、通知プログラム、通知方法および通知装置

Publications (2)

Publication Number Publication Date
JP2015133611A true JP2015133611A (ja) 2015-07-23
JP6347347B2 JP6347347B2 (ja) 2018-06-27

Family

ID=53900526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014004045A Active JP6347347B2 (ja) 2014-01-14 2014-01-14 通知システム、通知プログラム、通知方法および通知装置

Country Status (1)

Country Link
JP (1) JP6347347B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019198000A (ja) * 2018-05-09 2019-11-14 株式会社クリューシステムズ 映像監視システム及びその方法と撮像装置
WO2020158979A1 (ko) * 2019-02-01 2020-08-06 엘지전자 주식회사 전자 장치 및 그 제어 방법
CN112287821A (zh) * 2020-10-28 2021-01-29 业成科技(成都)有限公司 照护对象行为监测方法、装置、计算机设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11102493A (ja) * 1997-09-26 1999-04-13 Yoshimasa Tani 泣き声通知装置
JP2002074560A (ja) * 2000-08-30 2002-03-15 Tamotsu Miyamoto 監視システム
JP2002278582A (ja) * 2001-03-22 2002-09-27 Meiji Univ 乳幼児の音声解析システム
JP2002298255A (ja) * 2001-03-30 2002-10-11 Sogo Keibi Hosho Co Ltd 警備装置および警備システム
JP2005309965A (ja) * 2004-04-23 2005-11-04 Matsushita Electric Works Ltd 宅内セキュリティ装置
JP2006127057A (ja) * 2004-10-27 2006-05-18 Canon Inc 推定装置、及びその制御方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11102493A (ja) * 1997-09-26 1999-04-13 Yoshimasa Tani 泣き声通知装置
JP2002074560A (ja) * 2000-08-30 2002-03-15 Tamotsu Miyamoto 監視システム
JP2002278582A (ja) * 2001-03-22 2002-09-27 Meiji Univ 乳幼児の音声解析システム
JP2002298255A (ja) * 2001-03-30 2002-10-11 Sogo Keibi Hosho Co Ltd 警備装置および警備システム
JP2005309965A (ja) * 2004-04-23 2005-11-04 Matsushita Electric Works Ltd 宅内セキュリティ装置
JP2006127057A (ja) * 2004-10-27 2006-05-18 Canon Inc 推定装置、及びその制御方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019198000A (ja) * 2018-05-09 2019-11-14 株式会社クリューシステムズ 映像監視システム及びその方法と撮像装置
WO2020158979A1 (ko) * 2019-02-01 2020-08-06 엘지전자 주식회사 전자 장치 및 그 제어 방법
CN112287821A (zh) * 2020-10-28 2021-01-29 业成科技(成都)有限公司 照护对象行为监测方法、装置、计算机设备和存储介质
CN112287821B (zh) * 2020-10-28 2023-08-11 业成科技(成都)有限公司 照护对象行为监测方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
JP6347347B2 (ja) 2018-06-27

Similar Documents

Publication Publication Date Title
US11516040B2 (en) Electronic device and method for controlling thereof
US9984590B2 (en) Identifying a change in a home environment
JP6093124B2 (ja) 監督システム
Min et al. Exploring audio and kinetic sensing on earable devices
JP6459172B2 (ja) 起床通知システム、起床通知プログラム、起床通知方法および起床通知装置
JP2018508851A (ja) モニタリング
KR102032662B1 (ko) 장면 공간 모니터링을 통한 사람-컴퓨터 상호 작용
CN110709930B (zh) 用于提供有关检测到的事件的信息的方法、系统和介质
US10721347B2 (en) Detecting patterns and behavior to prevent a mobile terminal drop event
EP3637228A2 (en) Real-time motion feedback for extended reality
JP6347347B2 (ja) 通知システム、通知プログラム、通知方法および通知装置
JP6665276B2 (ja) トリガ領域
TWI514258B (zh) 語音管理方法及系統,及其電腦程式產品
KR102150623B1 (ko) 아기 행동 분석 시스템 및 그 방법
JP6711799B2 (ja) 機器制御装置、機器制御方法及び機器制御システム
JP6340626B2 (ja) 通知システム、通知プログラム、通知方法および通知装置
WO2016206646A1 (zh) 使机器装置产生动作的方法及系统
JP6281164B2 (ja) 遊び行動認識システム、遊び行動認識プログラム、遊び行動認識方法および遊び行動認識装置
JPWO2020116002A1 (ja) 情報処理装置及び情報処理方法
TWM486114U (zh) 自動照護裝置
TW201724084A (zh) 一種基於環境的嬰語解讀方法與系統
JP2018060248A (ja) 処理結果異常検出装置、処理結果異常検出プログラム、処理結果異常検出方法及び移動体
JP2015122004A (ja) 保育行動認識システム、保育行動認識プログラム、保育行動認識方法および保育行動認識装置
CN110427155B (zh) 一种看护方法及装置
JP2018143639A (ja) インタラクションを用いたユーザの状態推定装置及びその方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180516

R150 Certificate of patent or registration of utility model

Ref document number: 6347347

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250