JP6347347B2 - Notification system, notification program, notification method, and notification device - Google Patents

Notification system, notification program, notification method, and notification device Download PDF

Info

Publication number
JP6347347B2
JP6347347B2 JP2014004045A JP2014004045A JP6347347B2 JP 6347347 B2 JP6347347 B2 JP 6347347B2 JP 2014004045 A JP2014004045 A JP 2014004045A JP 2014004045 A JP2014004045 A JP 2014004045A JP 6347347 B2 JP6347347 B2 JP 6347347B2
Authority
JP
Japan
Prior art keywords
child
notification
crying
sound
crying behavior
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014004045A
Other languages
Japanese (ja)
Other versions
JP2015133611A (en
Inventor
昌裕 塩見
昌裕 塩見
敬宏 宮下
敬宏 宮下
萩田 紀博
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2014004045A priority Critical patent/JP6347347B2/en
Publication of JP2015133611A publication Critical patent/JP2015133611A/en
Application granted granted Critical
Publication of JP6347347B2 publication Critical patent/JP6347347B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は、通知システム、通知プログラム、通知方法および通知装置に関し、特にたとえば、子どもの行動に関する情報を通知する、通知システム、通知プログラム、通知方法および通知装置に関する。   The present invention relates to a notification system, a notification program, a notification method, and a notification device, and more particularly, to a notification system, a notification program, a notification method, and a notification device that notify information related to child behavior, for example.

背景技術の一例が特許文献1に開示されている。この特許文献1の情報処理装置は、ユーザが視聴しているコンテンツのメタ情報からユーザの感情を予測し、予測結果とユーザの表情やジェスチャーなどとから、ユーザの感情が認識される。そして、認識されたユーザの感情に基づいて、ユーザには情報が推薦される。   An example of background art is disclosed in Patent Document 1. The information processing apparatus disclosed in Patent Literature 1 predicts a user's emotion from the meta information of content viewed by the user, and recognizes the user's emotion from the prediction result and the user's facial expression, gesture, and the like. Information is recommended to the user based on the recognized emotion of the user.

特開2007-41988号公報[G06T 7/20]JP 2007-41988 [G06T 7/20]

ところが、特許文献1の情報処理装置では、ユーザの感情を認識するためには、ユーザにコンテンツを視聴させ続けなければならない。たとえば、この情報処理装置によって子どもの感情を認識しようとしても、子どもの興味対象は変化しやすいため、子どもの感情が適切に認識されにくい。   However, in the information processing apparatus of Patent Document 1, in order to recognize the user's emotion, the user must continue to view the content. For example, even if an attempt is made to recognize a child's emotion using this information processing apparatus, the child's interest is likely to change, so that the child's emotion is difficult to be recognized properly.

それゆえに、この発明の主たる目的は、新規な、通知システム、通知プログラム、通知方法および通知装置を提供することである。   Therefore, a main object of the present invention is to provide a novel notification system, notification program, notification method, and notification device.

この発明の他の目的は、子どもの感情の変化による保育者の負担を軽減することが出来る、通知システム、通知プログラム、通知方法および通知装置を提供することである。   Another object of the present invention is to provide a notification system, a notification program, a notification method, and a notification device that can reduce the burden on the childcare worker due to changes in children's emotions.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、子どもが居る空間内で発生する音の音情報を取得する第1取得手段、音情報に基づいて子どもが泣き行動を行うかを予測する予測手段、および子どもが泣き行動を行うと予測されたとき、予測結果を通知する第1通知手段を備える、通知システムである。   1st invention is the 1st acquisition means which acquires the sound information of the sound which generate | occur | produces in the space where a child exists, the prediction means which estimates whether a child will cry based on sound information, and a child crying behavior A notification system comprising first notification means for notifying a prediction result when predicted to be performed.

第1の発明では、通知システム(100:実施例において対応する部分を例示する参照符号。以下、同じ。)では、第1取得手段(80,S5)は、たとえば自宅などの子どもが居る空間の中に設けられたマイク(14)などを利用して、その空間内で発生する音の音情報を取得する。予測手段(80,S43)は、空間の中で発生した音の音情報のうち、たとえば音の音量の最大値などに基づいて、子どもが泣き行動を行うかを予測する。たとえば、大きな音に驚いて泣くなどの泣き行動が予測されると、第1通知手段(80,S47)は予測結果を通知する。   In the first invention, in the notification system (100: reference numerals exemplifying corresponding parts in the embodiment, the same applies hereinafter), the first acquisition means (80, S5) is, for example, a space such as a house where a child is present. The sound information of the sound generated in the space is acquired using the microphone (14) provided in the inside. The predicting means (80, S43) predicts whether the child performs a crying behavior based on, for example, the maximum value of the sound volume among the sound information of the sound generated in the space. For example, when a crying behavior such as crying surprised by a loud sound is predicted, the first notification means (80, S47) notifies the prediction result.

第1の発明によれば、保育者は子どもが泣き行動を行う前に子どもをなだめることが可能になるため、保育者の負担を軽減することが出来る。   According to the first invention, since the childcare person can soothe the child before the child performs the crying behavior, the burden on the childcare person can be reduced.

第2の発明は、第1の発明に従属し、空間内の子どもの位置情報を取得する第2取得手段をさらに備え、予測手段は、子どもの位置情報および音情報に基づいて子どもの泣き行動を予測する、請求項1記載の通知システムである。   The second invention is dependent on the first invention and further comprises second acquisition means for acquiring position information of the child in the space, and the prediction means is a child's crying behavior based on the child's position information and sound information The notification system according to claim 1, wherein:

第2の発明では、第2取得手段(80,S41)は、空間の天井に設けられる複数の距離画像センサ(12)を利用して、空間内の子どもの位置情報を取得する。そして、子どもの位置情報および空間内で発生した音の音情報に基づいて、予測手段は子どもが泣き行動を行うかを予測する。   In 2nd invention, a 2nd acquisition means (80, S41) acquires the positional information on the child in space using the some distance image sensor (12) provided in the ceiling of space. Then, based on the position information of the child and the sound information of the sound generated in the space, the predicting means predicts whether the child will cry.

第2の発明によれば、子どもの位置情報も利用して子どもの泣き行動が予測されるため、予測の精度が向上する。   According to the second aspect, since the child's crying behavior is predicted using the child's position information, the accuracy of the prediction is improved.

第3の発明は、第1の発明または第2の発明に従属し、音情報は、空間内で発生した音の音量の最大値を含み、予測手段は、音量の最大値に基づいて、子どもが泣き行動を行うかを予測する。   A third invention is dependent on the first invention or the second invention, and the sound information includes a maximum value of a sound volume generated in the space, and the predicting means is a child based on the maximum value of the sound volume. Predict what will cry.

第3の発明では、たとえば、急に大きな音が発生すると子どもが泣き行動を行う可能性が高くなる。そのため、予測手段は、空間内で発生した音の最大値に基づいて、子どもが泣き行動を行うかを予測する。   In the third invention, for example, if a loud sound suddenly occurs, the child is more likely to cry. Therefore, the predicting means predicts whether the child will cry based on the maximum value of the sound generated in the space.

第3の発明によれば、空間内で発生した音の最大値を利用して、子どもの泣き行動を予測することが出来る。   According to the third invention, the child's crying behavior can be predicted using the maximum value of the sound generated in the space.

第4の発明は、第1の発明ないし第3の発明のいずれかに従属し、音情報に基づいて子どもが行う泣き行動を認識する認識手段、および、子どもの泣き行動が認識されたとき、認識結果を通知する第2通知手段をさらに備える。   The fourth invention is dependent on any one of the first to third inventions, and the recognition means for recognizing the crying behavior performed by the child based on the sound information, and when the crying behavior of the child is recognized, Second notification means for notifying the recognition result is further provided.

第4の発明では、認識手段(80,S35)は、空間の中で発生している音の音情報のうち、たとえば音の音量の平均および周波数などに基づいて、泣き行動を認識する。泣き行動が認識されると、第2通知手段(80,S39)は泣き行動の認識結果を通知する。   In the fourth invention, the recognition means (80, S35) recognizes the crying behavior based on, for example, the average and frequency of the sound volume among the sound information of the sound generated in the space. When the crying behavior is recognized, the second notification means (80, S39) notifies the recognition result of the crying behavior.

第4の発明によれば、保育者が泣き行動を行っている子どもを認識できていない状態でも、保育者は子どもの元にすぐに向かうことが出来る。   According to the fourth aspect of the invention, the childcare worker can immediately go to the child even when the childcare worker cannot recognize the child who is crying.

第5の発明は、第4の発明に従属し、認識手段は、子どもの泣き行動と共に、その泣き行動の原因も認識し、第2通知手段は、子どもの泣き行動が認識されたとき、泣き行動の原因を通知する。 The fifth invention is dependent on the fourth invention, the recognition means recognizes the cause of the crying behavior together with the child crying behavior, and the second notification means cry when the child crying behavior is recognized. Notify the cause of action.

第5の発明では、子どもが泣き行動を行うと、認識手段はその泣き行動の原因を認識する。そして、子どもの泣き行動が認識されると、通知手段は泣き行動の原因も通知する。   In the fifth invention, when the child performs crying behavior, the recognition means recognizes the cause of the crying behavior. When the child's crying behavior is recognized, the notification means also notifies the cause of the crying behavior.

第5の発明によれば、保育者は、子どもが泣き行動を行う原因を知ることが出来るため、子どもの気持ちに寄り添って子どもをなだめることが可能となる。   According to the fifth invention, the childcare person can know the cause of the child's crying behavior, and can soothe the child by snuggling up to the child's feelings.

第6の発明は、通知システムのプロセッサ(80)を、子どもが居る空間内で発生する音の音情報を取得する取得手段(S5)、音情報に基づいて子どもが泣き行動を行うかを予測する予測手段(S43)、および子どもが泣き行動を行うと予測されたとき、予測結果を通知する通知手段(S47)として機能させる、通知プログラムである。   The sixth invention predicts whether the processor (80) of the notification system acquires sound information of sound generated in the space where the child is present (S5), and whether the child performs crying behavior based on the sound information And a notification program that functions as notification means (S47) for notifying the prediction result when the child is predicted to perform a crying action.

第6の発明でも、第1の発明と同様、保育者は子どもが泣き行動を行う前に子どもをなだめることが可能になるため、保育者の負担を軽減することが出来る。   In the sixth invention as well, as in the first invention, since the childcare person can soothe the child before the child performs crying behavior, the burden on the childcare person can be reduced.

第7の発明は、通知システムのプロセッサ(80)が、子どもが居る空間内で発生する音の音情報を取得する取得ステップ(S5)、音情報に基づいて子どもが泣き行動を行うかを予測する予測ステップ(S43)、および子どもが泣き行動を行うと予測されたとき、予測結果を通知する通知ステップ(S47)を実行する、通知方法である。   7th invention is an acquisition step (S5) which the processor (80) of a notification system acquires the sound information of the sound which generate | occur | produces in the space where a child exists, and predicts whether a child will cry based on sound information This is a notification method in which a prediction step (S43) to be performed and a notification step (S47) to notify a prediction result when the child is predicted to perform a crying behavior are performed.

第7の発明でも、第1の発明と同様、保育者は子どもが泣き行動を行う前に子どもをなだめることが可能になるため、保育者の負担を軽減することが出来る。   In the seventh invention as well, as in the first invention, the childcare person can soothe the child before the child performs crying behavior, and thus the burden on the childcare person can be reduced.

第8の発明は、子どもが居る空間内で発生する音の音情報を取得する取得手段(80,S5)、音情報に基づいて子どもが泣き行動を行うかを予測する予測手段(80,S43)、および子どもが泣き行動を行うと予測されたとき、予測結果を通知する通知手段(80,S47)を備える、通知装置である。   The eighth invention relates to an acquisition means (80, S5) for acquiring sound information of a sound generated in a space where a child is present, and a prediction means (80, S43) for predicting whether the child performs a crying behavior based on the sound information. ), And a notification means (80, S47) for notifying a prediction result when a child is predicted to perform a crying action.

第8の発明でも、第1の発明と同様、保育者は子どもが泣き行動を行う前に子どもをなだめることが可能になるため、保育者の負担を軽減することが出来る。   In the eighth invention as well, as in the first invention, the childcare worker can soothe the child before the child performs crying behavior, so the burden on the childcare worker can be reduced.

この発明によれば、保育者の負担を軽減することが出来る。   According to this invention, the burden on the childcare worker can be reduced.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例の通知システムの概要を示す図解図である。FIG. 1 is an illustrative view showing an outline of a notification system according to an embodiment of the present invention. 図2は図1に示す通知システムの構成の一例を示す図解図である。FIG. 2 is an illustrative view showing one example of a configuration of the notification system shown in FIG. 図3は図1に示す距離画像センサの電気的な構成の一例を示すブロック図である。FIG. 3 is a block diagram showing an example of the electrical configuration of the distance image sensor shown in FIG. 図4は図2に示す中央制御装置の電気的な構成の一例を示すブロック図である。FIG. 4 is a block diagram showing an example of the electrical configuration of the central controller shown in FIG. 図5は図1に示す通知システムが利用される空間の地図の一例を示す図解図である。FIG. 5 is an illustrative view showing one example of a map of a space in which the notification system shown in FIG. 1 is used. 図6は図4に示す中央制御装置のメモリに記憶される環境データテーブルの構成の一例を示す図解図である。6 is an illustrative view showing one example of a configuration of an environmental data table stored in the memory of the central control unit shown in FIG. 図7は図4に示す中央制御装置によって認識される泣き行動の原因の一覧を示す図解図である。FIG. 7 is an illustrative view showing a list of causes of crying behavior recognized by the central control device shown in FIG. 図8は図4に示す中央制御装置から通知されるメッセージの一例を示す図解図であり、図8(A)は泣き行動が認識されたときに通知されるメッセージの一例を示し、図8(B)は泣き行動が予測されたときに通知されるメッセージの一例を示す。FIG. 8 is an illustrative view showing an example of a message notified from the central control unit shown in FIG. 4. FIG. 8A shows an example of a message notified when a crying behavior is recognized. B) shows an example of a message notified when crying behavior is predicted. 図9は図4に示す中央制御装置のメモリのメモリマップの一例を示す図解図である。FIG. 9 is an illustrative view showing one example of a memory map of a memory of the central control unit shown in FIG. 図10は図4に示す中央制御装置のプロセッサの取得処理の一例を示すフロー図である。FIG. 10 is a flowchart showing an example of acquisition processing of the processor of the central control unit shown in FIG. 図11は図4に示す中央制御装置のプロセッサの通知処理の一例を示すフロー図である。FIG. 11 is a flowchart showing an example of the notification process of the processor of the central controller shown in FIG.

図1を参照して、この実施例の通知システム100は、子どもが自由に移動する家や保育園などの空間(環境)で利用される。空間内には、テレビやソファおよびテーブルセットなどの家具が置かれており、子どもは空間の中を自由に移動することが出来る。親や保育士などの保育者も空間内におり、子どもを保育したり、家事などを行ったりしている。また、保育者は携帯端末10を所持しており、空間内の天井には複数の距離画像センサ12(12a,12b,…)が設けられ、壁には複数のマイク14(14a,14b,…)が設けられている。   Referring to FIG. 1, a notification system 100 of this embodiment is used in a space (environment) such as a house where a child freely moves or a nursery school. Furniture such as a TV, sofa and table set is placed in the space, and children can move freely in the space. Parents and nursery teachers are also in the space, raising children and doing housework. Moreover, the childcare person possesses the portable terminal 10, and a plurality of distance image sensors 12 (12a, 12b,...) Are provided on the ceiling in the space, and a plurality of microphones 14 (14a, 14b,...) Are provided on the wall. ) Is provided.

携帯端末10は、スマートフォン(smartphone)とも呼ばれる携帯電話機である。通知システム100は、携帯端末10に対してメッセージを送信(通知)し、携帯端末10はメッセージを受信すると、音声または振動によってメッセージの受信を保育者に知らせる。そして、保育者は通知システム100からのメッセージを、携帯端末10を利用して確認することが出来る。なお、他の実施例では、ipod touch(登録商標)やPDAなどのデータ端末が、携帯端末10として採用されてもよい。   The mobile terminal 10 is a mobile phone also called a smartphone. The notification system 100 transmits (notifies) a message to the mobile terminal 10, and when the mobile terminal 10 receives the message, it notifies the childcare center of the reception of the message by voice or vibration. And the childcare person can confirm the message from the notification system 100 using the portable terminal 10. In another embodiment, a data terminal such as ipod touch (registered trademark) or PDA may be adopted as the mobile terminal 10.

複数の距離画像センサ12は、子どもの位置情報を検出することを目的として、空間の天井に設けられている。複数のマイク14は、空間内で発生する音(雑音)を集音することを目的として、空間の壁に設けられている。   The plurality of distance image sensors 12 are provided on the ceiling of the space for the purpose of detecting child position information. The plurality of microphones 14 are provided on the wall of the space for the purpose of collecting sound (noise) generated in the space.

通知システム100は、各距離画像センサ12および各マイク14を利用して、子どもが行う泣き行動を予測および認識する。そして、予測および認識の結果が、携帯端末10に対して通知される。   The notification system 100 uses each distance image sensor 12 and each microphone 14 to predict and recognize the crying behavior performed by the child. Then, the result of prediction and recognition is notified to the mobile terminal 10.

なお、実施例の空間は保育者と子どもとが居る家であるが、これに限らず幼稚園、学童保育所などでも通知システム100は利用可能である。   In addition, although the space of an Example is a house where a childcare person and a child exist, not only this but the notification system 100 can be used also in a kindergarten, a schoolchild nursery school, etc.

また、図1では簡単のため、マイク14は2つしか示していないが、さらに多くのマイク14が空間内に置かれてもよいし、マイク14が1つであってもよい。そして、保育者(携帯端末10)は1人しか示していないが、空間内には2人以上の保育者が居てもよい。   For simplicity, only two microphones 14 are shown in FIG. 1, but more microphones 14 may be placed in the space, or one microphone 14 may be provided. And although only one childcare person (mobile terminal 10) is shown, there may be two or more childcare persons in the space.

また、距離画像センサ12a,12b,…を区別する必要がない場合、単に「距離画像センサ12」と言う。そして、マイク14a,14b,…を区別する必要が無い場合、単に「マイク14」と言う。   Further, when it is not necessary to distinguish the distance image sensors 12a, 12b,. When there is no need to distinguish between the microphones 14a, 14b,..., They are simply referred to as “microphone 14”.

図2を参照して、通知システム100の中央制御装置16は、通知装置とも呼ばれ、距離画像センサ12およびマイク14などが接続される。また、中央制御装置16は、ネットワーク1000を介して携帯端末10と無線通信を行う。中央制御装置16は、第1時間(たとえば、0.05秒)毎に、距離画像センサ12およびマイク14が出力するセンサ情報を取得する。そして、中央制御装置16は、取得した各センサの情報から、子どもの位置情報および空間内で発生した音の音情報などを含む環境データ(図6参照)をテーブルに記憶する。   Referring to FIG. 2, central control device 16 of notification system 100 is also referred to as a notification device, to which distance image sensor 12 and microphone 14 are connected. Further, the central control device 16 performs wireless communication with the mobile terminal 10 via the network 1000. The central control device 16 acquires sensor information output by the distance image sensor 12 and the microphone 14 every first time (for example, 0.05 seconds). Then, the central control device 16 stores environmental data (see FIG. 6) including child position information and sound information of sounds generated in the space from the acquired information of each sensor in a table.

図3は距離画像センサ12の電気的な構成を示すブロック図である。図3を参照して、距離画像センサ12は制御IC60などを含む。制御IC60には、A/D変換器62、カメラ66、深度センサ68、深度カメラ70およびI/O72などが接続される。   FIG. 3 is a block diagram showing an electrical configuration of the distance image sensor 12. Referring to FIG. 3, distance image sensor 12 includes a control IC 60 and the like. An A / D converter 62, a camera 66, a depth sensor 68, a depth camera 70, an I / O 72, and the like are connected to the control IC 60.

制御IC60は、キャッシュメモリなどを有し、距離画像センサ12の動作を制御する。たとえば、制御IC60は、中央制御装置16からの命令に従って動作し、検出した結果を中央制御装置16に送信する。   The control IC 60 includes a cache memory and the like, and controls the operation of the distance image sensor 12. For example, the control IC 60 operates according to a command from the central controller 16 and transmits the detected result to the central controller 16.

A/D変換機62にはマイク64が接続され、マイク64からの音声信号はA/D変換機62でディジタル音声信号に変換され、制御IC60に入力される。また、マイク64によって集音された音は、マイク14によって集音された音と共に、空間内の雑音などの音量を計測するために利用される。   A microphone 64 is connected to the A / D converter 62, and an audio signal from the microphone 64 is converted into a digital audio signal by the A / D converter 62 and input to the control IC 60. The sound collected by the microphone 64 is used to measure the volume of noise in the space together with the sound collected by the microphone 14.

カメラ66は、距離画像センサ12が設置された空間のRGB情報、つまりカラー画像を撮影するためのカメラである。また、カメラ66は、後述する深度カメラ70が撮影している空間と略同じ空間を撮影することが可能なように、距離画像センサ12に設けられている。   The camera 66 is a camera for photographing RGB information of the space in which the distance image sensor 12 is installed, that is, a color image. In addition, the camera 66 is provided in the distance image sensor 12 so as to be able to capture a space that is substantially the same as the space that is captured by the depth camera 70 described later.

深度センサ68は、たとえば赤外線プロジェクタであり、深度カメラ70は、たとえば赤外線カメラである。深度センサ68は、たとえば赤外線によるレーザ光を距離画像センサ12の正面に照射する。空間には照射されたレーザ光によって特殊なパターンが描画され、深度カメラ70は描画されたパターンを撮影する。そして、撮影された画像は制御IC60に入力され、制御IC60はその画像を解析することで、レーザ光が照射された空間の奥行(depth)情報を計測する。   The depth sensor 68 is, for example, an infrared projector, and the depth camera 70 is, for example, an infrared camera. The depth sensor 68 irradiates the front of the distance image sensor 12 with, for example, infrared laser light. A special pattern is drawn in the space by the irradiated laser light, and the depth camera 70 captures the drawn pattern. The captured image is input to the control IC 60, and the control IC 60 analyzes the image to measure the depth information of the space irradiated with the laser light.

I/O72は、入力/出力の制御が可能なディジタルポートであり、出力ポートからは音声信号、RGB情報および奥行情報が出力され、中央制御装置16に与えられる。一方、中央制御装置16からは制御信号が出力され、入力ポートに与えられる。   The I / O 72 is a digital port capable of input / output control, and an audio signal, RGB information, and depth information are output from the output port and provided to the central controller 16. On the other hand, a control signal is output from the central control device 16 and applied to the input port.

なお、距離画像センサ12は、RGB情報および奥行情報を出力することからRGB−Dセンサと呼ばれることもある。   The distance image sensor 12 outputs RGB information and depth information and is sometimes called an RGB-D sensor.

また、実施例の距離画像センサ12には、Microsoft(登録商標)社製のKinect(登録商標)センサと呼ばれる製品が採用されている。ただし、他の実施例では、ASUS(登録商標)社製のXtion、パナソニック(登録商標)社製の3次元距離画像センサであるD−IMager(登録商標)などが距離画像センサ12として採用されてもよい。   The distance image sensor 12 of the embodiment employs a product called Kinect (registered trademark) manufactured by Microsoft (registered trademark). However, in other embodiments, Xtion manufactured by ASUS (registered trademark), D-IMAGEr (registered trademark), which is a three-dimensional distance image sensor manufactured by Panasonic (registered trademark), and the like are employed as the distance image sensor 12. Also good.

図4は中央制御装置16の電気的な構成を示すブロック図である。図4を参照して、中央制御装置16は、距離画像センサ12およびプロセッサ80などを含む。プロセッサ80は、マイクロコンピュータ或いはCPUと呼ばれることもある。プロセッサ80には、複数の距離画像センサ12、メモリ82、A/D変換機84、出力装置86、入力装置88および通信LANボード90などが接続される。   FIG. 4 is a block diagram showing an electrical configuration of the central controller 16. Referring to FIG. 4, the central controller 16 includes a distance image sensor 12 and a processor 80. The processor 80 is sometimes called a microcomputer or CPU. A plurality of distance image sensors 12, a memory 82, an A / D converter 84, an output device 86, an input device 88, a communication LAN board 90, and the like are connected to the processor 80.

距離画像センサ12は、上述したように奥行情報などを出力する。この奥行情報には、空間に居る子ども(人)の形状および人までの距離が含まれている。たとえば、人が天井に設けられた距離画像センサ12によってセンシングされると、人を上から見た状態の頭部および両肩の形状と、頭部および両肩までの距離が奥行情報として得られる。   The distance image sensor 12 outputs depth information as described above. This depth information includes the shape of the child (person) in the space and the distance to the person. For example, when a person is sensed by the distance image sensor 12 provided on the ceiling, the shape of the head and both shoulders when the person is viewed from above and the distance to the head and both shoulders are obtained as depth information. .

また、空間には35個の距離画像センサ12が所定の位置(既知)に設置されており、プロセッサ80は、各々から奥行情報を取得して、空間(ワールド座標系)における人の位置情報(たとえば、重心など特徴点の位置座標(X,Y,Z))を計算することが出来る。   In addition, 35 distance image sensors 12 are installed at predetermined positions (known) in the space, and the processor 80 acquires depth information from each of the distance information sensors 12 so that the position information of the person in the space (world coordinate system) ( For example, the position coordinates (X, Y, Z) of feature points such as the center of gravity can be calculated.

また、距離画像センサ12はマイク64を有するため、中央制御装置16では、音情報が入力される距離画像センサ12の位置から、音の発生源を推定することも出来る。   Further, since the distance image sensor 12 includes the microphone 64, the central control device 16 can also estimate the sound generation source from the position of the distance image sensor 12 to which sound information is input.

なお、他の実施例では、距離画像センサ12ではなく、2次元または3次元のLRFを利用して、人の位置および姿勢が検出されてもよい。   In another embodiment, the position and posture of a person may be detected using a two-dimensional or three-dimensional LRF instead of the distance image sensor 12.

プロセッサ80は中央制御装置16の動作を制御し、日時情報を出力するRTCを含む。メモリ82は、ROM,HDDおよびRAMを含む。ROMおよびHDDには、中央制御装置16の動作を制御するための制御プログラムなどが予め記憶される。また、RAMは、プロセッサ80のワークメモリやバッファメモリとして用いられる。   The processor 80 includes an RTC that controls the operation of the central controller 16 and outputs date and time information. The memory 82 includes a ROM, an HDD, and a RAM. In the ROM and the HDD, a control program for controlling the operation of the central control device 16 is stored in advance. The RAM is used as a work memory or a buffer memory for the processor 80.

A/D変換機84には、複数のマイク14a,14bが接続される。各マイク14からの音声信号はA/D変換機84でディジタル音声信号に変換され、プロセッサ80に入力される。そして、マイク14によって集音された音は、マイク64によって集音された音と共に、空間内の雑音などの音量を計測するために利用される。なお、他の実施例では、各マイク14がそれぞれ独立して、プロセッサ80に接続されてもよい。この場合、プロセッサ80は、音が入力されるマイク14を特定することが可能となる。   A plurality of microphones 14 a and 14 b are connected to the A / D converter 84. The audio signal from each microphone 14 is converted into a digital audio signal by the A / D converter 84 and input to the processor 80. The sound collected by the microphone 14 is used for measuring the volume of noise in the space together with the sound collected by the microphone 64. In other embodiments, each microphone 14 may be independently connected to the processor 80. In this case, the processor 80 can specify the microphone 14 to which sound is input.

出力装置86は、たとえばディスプレイなどであり、入力装置88は、たとえばマウスやキーボードである。そして、保育者や、空間の管理人(たとえば、園長)は、中央制御装置16の状態を、出力装置86および入力装置88を利用して確認および利用することが出来る。   The output device 86 is, for example, a display, and the input device 88 is, for example, a mouse or a keyboard. Then, a childcare worker or a space manager (for example, the head of the garden) can check and use the state of the central control device 16 using the output device 86 and the input device 88.

通信LANボード90は、たとえばDSPで構成され、プロセッサ80から与えられた送信データを無線通信装置92に与え、無線通信装置92は送信データを、ネットワーク1000を介して携帯端末10に送信する。また、通信LANボード90は、無線通信装置92を介してデータを受信し、受信したデータをプロセッサ80に与える。   The communication LAN board 90 is configured by a DSP, for example, and provides the transmission data provided from the processor 80 to the wireless communication device 92, and the wireless communication device 92 transmits the transmission data to the mobile terminal 10 via the network 1000. Further, the communication LAN board 90 receives data via the wireless communication device 92 and gives the received data to the processor 80.

図5は空間の地図の一例を示す図解図である。この地図は、図1に示す空間と対応しており、テレビ(テレビ台を含む)、ソファおよびテーブルセットが配置されている位置を示している。また、地図上には示されていないが、各家具には高さ情報(Z)が付与されている。たとえば、テレビには床からテレビ台の表面までの距離が高さ情報として付与され、ソファには床から座面までの距離が高さ情報として付与され、テーブルセットには床から椅子の座面までの高さと床からテーブル面までの高さとが付与される。そして、これらの情報は、地図データとして中央制御装置16のメモリ82に記憶される。   FIG. 5 is an illustrative view showing an example of a map of a space. This map corresponds to the space shown in FIG. 1 and shows the positions where the television (including the TV stand), the sofa and the table set are arranged. Moreover, although not shown on the map, height information (Z) is given to each furniture. For example, the distance from the floor to the surface of the TV stand is given as height information to the TV, the distance from the floor to the seat is given to the sofa as height information, and the seat from the floor to the chair is given to the table set. And the height from the floor to the table surface. These pieces of information are stored in the memory 82 of the central controller 16 as map data.

図6は環境データテーブルの構成の一例を示す図解図である。環境データとは、ある日時における子どもの位置情報と、空間内で発生した音の分析結果と、子どもの行動に関する時間とを含むデータである。そして、環境データテーブルには、1行毎にこれらの情報を含む環境データが記憶される。図6を参照して、環境データテーブルは、日時、子ども、音声、食事をしていない時間および起き続けている時間の列を含む。また、音情報の列には、平均、最大および周波数の列が含まれる。   FIG. 6 is an illustrative view showing one example of a configuration of an environment data table. The environmental data is data including the position information of the child at a certain date and time, the analysis result of the sound generated in the space, and the time related to the behavior of the child. The environmental data table stores environmental data including these pieces of information for each row. Referring to FIG. 6, the environment data table includes columns of date and time, children, voice, non-mealing time, and continuous waking time. The sound information columns include average, maximum, and frequency columns.

日時の列には、環境データが取得された日時が記憶される。また、記憶される日時の形式としては、「yy」が「年」を示し、「mm」が「月」を示し、「dd」が「日」を示し、「H」が「時」を示し、「M」が「分」を示し、「S」が「秒」を示す。   The date and time column stores the date and time when the environmental data was acquired. As the format of the date and time stored, “yy” indicates “year”, “mm” indicates “month”, “dd” indicates “day”, and “H” indicates “hour”. , “M” indicates “minute”, and “S” indicates “second”.

子どもの列には、子どもの位置として「X,Y,Z」が記憶される。たとえば、地図上で子どもの位置情報を確認することで、子どもが人や物と衝突したり、落下したりしたかを判断することが可能となる。また、子どもの位置情報から、子どもが眠っているなどの理由で動きが無いことを判断することも出来る。   In the child column, “X, Y, Z” is stored as the position of the child. For example, by checking the position information of a child on a map, it is possible to determine whether the child collided with a person or an object or dropped. Further, it can be determined from the position information of the child that there is no movement because the child is asleep.

音情報の列における平均の列には、各距離画像センサ12および各マイク14から取得される音の音量の平均として「AB」が記憶される。また、音情報の列における最大の列には、各距離画像センサ12および各マイク14から取得された音声の音量の最大として「MB」が記憶される。そして、音情報の列における周波数の列には、音量の平均における周波数として「f」が記憶される。   In the average column of the sound information column, “AB” is stored as an average of sound volumes acquired from the distance image sensors 12 and the microphones 14. Also, “MB” is stored as the maximum volume of the sound acquired from each distance image sensor 12 and each microphone 14 in the maximum column of the sound information column. In the frequency column of the sound information column, “f” is stored as the frequency of the average volume.

音の平均「AB」は空間内の雑音の音量の平均または子どもの泣き声の音量の平均を示すことになる。たとえば、常にうるさい状況では子どもが怖がり泣き行動を起こしやすくなるため、そのような状況であるかを判断するために利用される。また、子どもが泣き行動を行っている場合は、泣き行動の原因によって泣き声の音量が変化するため、泣き行動の原因を判断するために利用される。   The average of sound “AB” indicates the average of the volume of noise in the space or the average of the volume of a child's cry. For example, it is used to determine whether or not the situation is always noisy because the child is scared and easily crying. In addition, when the child is crying, the volume of the crying voice changes depending on the cause of the crying behavior, so that the child is used to determine the cause of the crying behavior.

音の最大「MB」は空間内の雑音の音量の最大または子どもの泣き声の音量の最大を示すことになる。たとえば、急に大きな音が発生すると子どもが泣き行動を行いやすくなるため、そのような状況であるかを判断するために利用される。また、子どもが泣き行動を行っている場合は、泣き行動の原因によって泣き声の音量が変化するため、音の最大「MB」は泣き行動の原因を判断するために利用される。   The maximum “MB” of the sound indicates the maximum volume of noise in the space or the maximum volume of a child's cry. For example, a sudden loud sound makes it easier for a child to cry and is used to determine whether such a situation is present. When the child is crying, the volume of the cry changes depending on the cause of the crying behavior, so the maximum “MB” of the sound is used to determine the cause of the crying behavior.

音の周波数「f」は子どもが泣き行動を行っている際の泣き声の周波数を示す。たとえば、子どもの泣き声は泣き行動の原因によって周波数が異なることがある。そのため、音の周波数「f」は泣き行動の原因を判断するために利用される。   The sound frequency “f” indicates the frequency of the cry when the child is crying. For example, a child's cry may have a different frequency depending on the cause of the crying behavior. Therefore, the frequency “f” of the sound is used to determine the cause of the crying behavior.

なお、音量の平均「AB」および音の最大「MB」の単位は「dB」であり、音の周波数「f」の単位は「Hz」である。   The unit of the average “AB” of the sound volume and the maximum “MB” of the sound is “dB”, and the unit of the sound frequency “f” is “Hz”.

食事をしていない時間の列には、子どもが最後に食事をしてからの時間として「FT」が記憶される。時間「FT」は子どもが食事を行ったと判断されるまでは、対応する変数がカウントされ続け、時間「FT」を環境データテーブルに記憶するときに、対応する変数に基づいて時間「FT」が記憶される。また、実施例では、子どもが食事を行ったかは、保育者から通知され、この通知がされたときに上述した変数が初期化される。なお、他の実施例では、中央制御装置16が、子どもの位置情報および時刻などから、子どもが食事を行ったかを判断してもよい。   “FT” is stored as the time since the last meal of the child in the column of the time when the meal is not taken. Until the time “FT” is determined that the child has eaten, the corresponding variable continues to be counted. When the time “FT” is stored in the environmental data table, the time “FT” is calculated based on the corresponding variable. Remembered. Further, in the embodiment, whether the child has eaten is notified from the childcare person, and when this notification is given, the above-described variables are initialized. In another embodiment, the central control device 16 may determine whether the child has eaten from the position information and time of the child.

起き続けている時間の列には、子どもが起きてからの時間として「WT」が記憶される。時間「WT」は子どもが寝たと判断されるまでは、対応する変数がカウントされ続け、時間「WT」を環境データテーブルに記憶するときに、対応する変数に基づいて時間「WT」が記憶される。また、実施例では、子どもが寝たかは、子どもの位置情報の変化に基づいて判断され、寝たと判断されたときに上述した変数が初期化される。なお、他の実施例では、子どもが寝たことは保育者からの通知に基づいて判断されてもよい。   “WT” is stored as the time since the child woke up in the column of the time of waking up. Until time “WT” is determined that the child has fallen asleep, the corresponding variable continues to be counted, and when time “WT” is stored in the environmental data table, time “WT” is stored based on the corresponding variable. The In the embodiment, whether or not the child has fallen is determined based on a change in the child's position information, and the variables described above are initialized when it is determined that the child has fallen. In other embodiments, it may be determined based on a notification from the childcare worker that the child has slept.

ここで、子どもの位置情報と、音情報における音の平均および周波数と、食事をしていない時間と、起き続けている時間とは、子どもの泣き行動を認識するための情報であり、第1判定情報と呼ばれることがある。また、子どもの位置情報および音情報における音の最大は、子どもの泣き行動を予測するための情報であるため、第2判定情報と呼ばれることがある。   Here, the position information of the child, the average and frequency of the sound in the sound information, the time of not eating and the time of waking up are information for recognizing the child's crying behavior. Sometimes called decision information. Moreover, since the maximum sound in the child position information and sound information is information for predicting the child's crying behavior, it may be referred to as second determination information.

中央制御装置16は、環境データテーブルに対して、第1時間毎にこのような環境データを記憶する。そして、中央制御装置16は、第2時間毎に子どもの泣き行動の認識および予測を行う。   The central controller 16 stores such environmental data every first time in the environmental data table. The central control device 16 recognizes and predicts the child's crying behavior every second time.

図7は泣き行動の具体的な原因を示す図解図である。図7を参照して、実施例では泣き行動と共に、泣き行動の原因も認識される。そして、子どもの泣き行動の原因としては、「空腹」、「眠たい」、「驚いた」および「痛い」などが含まれる。泣き行動の原因が「空腹」と認識されている場合、子どもはお腹を空かせたため泣き行動を行っている可能性が高い。泣き行動の原因が「眠たい」と認識されている場合、子どもは眠たくなったため泣き行動を行っている可能性が高い。泣き行動の原因が「驚いた」と認識されている場合、子どもは驚いたため泣き行動を行っている可能性が高い。泣き行動の原因が「痛い」の場合、子どもは痛みを感じているため泣き行動を行っている可能性が高い。   FIG. 7 is an illustrative view showing a specific cause of crying behavior. Referring to FIG. 7, in the embodiment, the cause of the crying behavior is recognized together with the crying behavior. The causes of child's crying behavior include “hungry”, “I want to sleep”, “surprised” and “painful”. If the cause of the crying behavior is recognized as “hungry,” the child is likely to be crying because they are hungry. If the cause of the crying behavior is recognized as “I want to sleep”, the child is likely to be crying because he / she became sleepy. If the cause of the crying behavior is recognized as “surprised”, the child is likely to be crying because of the surprise. If the cause of the crying action is “painful”, the child is likely to be crying because the child feels pain.

実施例では、子どもが泣き行動が行ったときの第1判定情報に対して原因をラベル付けして教師データとし、SVM(Support vector machine)などの機械学習手法によって教師データを学習する。その結果、泣き行動を認識する判別モデルが作成される。この判別モデルに対して、第2時間分の未知の第1判別情報を入力すると、泣き行動の原因と、泣き行動を行っているかを示す確率とが少なくとも1つ以上得られる。そして、確率が第1閾値より大きいとき、泣き行動が行われていると認識され、その泣き行動の原因が出力される。   In the embodiment, the cause is labeled as teacher data with respect to the first determination information when the child performs a crying action, and the teacher data is learned by a machine learning method such as SVM (Support Vector Machine). As a result, a discrimination model for recognizing crying behavior is created. If unknown first discrimination information for the second time is input to this discrimination model, at least one or more of the cause of the crying behavior and the probability indicating whether the crying behavior is being performed can be obtained. When the probability is greater than the first threshold, it is recognized that the crying behavior is being performed, and the cause of the crying behavior is output.

たとえば、泣き行動の判別モデルに対して、泣き行動が行われているときの第1判定情報が未知データとして入力されたときに、確率が90%の「空腹」と確率が80%の「痛い」とが出力された場合、第1閾値が85%であれば、確率が第1閾値よりも大きい「空腹」が原因で泣き行動が行われていると認識される。また、第1閾値が75%であれば、確率が最も高い「空腹」が原因で泣き行動が行われていると認識される。そして、また、第1閾値が95%であれば、それぞれの確率は第1閾値よりも小さいので、泣き行動は行われていないとの認識結果が出力される。   For example, for the discrimination model for crying behavior, when the first judgment information when crying behavior is performed is input as unknown data, “hungry” with a probability of 90% and “pain” with a probability of 80% ”Is output, if the first threshold is 85%, it is recognized that the crying action is being performed due to“ hunger ”having a probability greater than the first threshold. If the first threshold value is 75%, it is recognized that the crying action is performed due to “hunger” having the highest probability. And if the 1st threshold is 95%, since each probability is smaller than the 1st threshold, the recognition result that crying action is not performed is outputted.

図8(A)を参照して、たとえば「空腹」が原因で泣き行動が行われているとの認識結果が出力された場合、中央制御装置16は保育者が所持する携帯端末10に対して、子どもが「空腹」で泣き行動を行っている旨を伝えるメッセージを送信する。これにより、たとえば保育者が子どもの近くにおらず、泣き行動を行っている子どもを認識できていない状態でも、保育者は子どもの元にすぐに向かうことが出来る。特に、保育者は、子どもが泣き行動を行う原因を知ることが出来るため、子どもの気持ちに寄り添って子どもをなだめることが可能となる。   With reference to FIG. 8A, for example, when a recognition result indicating that crying behavior is being performed due to “hungry” is output, the central control device 16 makes a response to the portable terminal 10 possessed by the childcare worker. , Send a message telling you that your child is crying because of "hungry". Thereby, for example, even if the childcare person is not near the child and does not recognize the child who is crying, the childcare person can immediately go to the child. In particular, the childcare person can know the cause of the child's crying behavior, and can soothe the child in close proximity to the child's feelings.

また、実施例では、子どもが泣き行動が行われる所定時間前の第2判定情報を教師データとし、SVMなどの機械学習手法によって教師データを学習する。その結果、所定時間内に起きる泣き行動を予測する判別モデルが作成される。この判別モデルに対して第2時間分の未知の第2判定情報を入力すると、所定時間内に泣き行動が行われる確率が予測結果として出力される。   In the embodiment, the teacher data is learned by a machine learning method such as SVM using the second determination information a predetermined time before the child is crying as teacher data. As a result, a discrimination model for predicting crying behavior that occurs within a predetermined time is created. When unknown second determination information for the second time is input to this determination model, the probability that a crying action will be performed within a predetermined time is output as a prediction result.

図8(B)を参照して、たとえば予測結果として出力された確率が第2閾値より大きい場合、中央制御装置16は、保育者が所持する携帯端末10に対して、所定時間内に泣き行動が行われることを伝えるメッセージを送信する。これにより、保育者は、子どもが泣き行動を行う前に子どもをなだめることが可能になるため、保育者の負担を軽減することが出来る。特に、実施例では、空間内で発生する音の音情報に加えて、子どもの位置情報も利用して子どもの泣き行動が予測されるため、予測の精度が向上する。   Referring to FIG. 8B, for example, when the probability output as a prediction result is larger than the second threshold value, central controller 16 crys within a predetermined time against portable terminal 10 possessed by the childcare worker. Send a message telling you that will be done. As a result, the childcare worker can soothe the child before the child performs crying behavior, and thus the burden on the childcare worker can be reduced. In particular, in the embodiment, since the child's crying behavior is predicted using the position information of the child in addition to the sound information of the sound generated in the space, the prediction accuracy is improved.

なお、実施例では、泣き行動の認識および予測は、環境データを取得するために必要な第1時間よりも長い第2時間毎に認識される。つまり、泣き行動を認識および予測するために必要な環境データ(第1判定情報および第2判定情報)が取得されてから泣き行動が認識および予測される。これにより、子どもの泣き行動を正確に認識および予測することが出来る。   In addition, in an Example, recognition and prediction of a crying action are recognized for every 2nd time longer than 1st time required in order to acquire environmental data. That is, the crying behavior is recognized and predicted after the environmental data (first determination information and second determination information) necessary for recognizing and predicting the crying behavior is acquired. As a result, the child's crying behavior can be accurately recognized and predicted.

上述では実施例の特徴を概説した。以下では、図9に示すメモリマップ、図10および図11に示すフロー図を用いて、実施例について詳細に説明する。   The above has outlined features of the embodiment. Hereinafter, the embodiment will be described in detail using the memory map shown in FIG. 9 and the flowcharts shown in FIGS. 10 and 11.

図9は図4に示す中央制御装置16のメモリ82のメモリマップの一例を示す図解図である。図9に示すように、メモリ82はプログラム領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、中央制御装置16を動作させるためのプログラムとして、各センサから情報を取得し、環境データテーブルに環境データを記憶するための取得プログラム310および泣き行動を認識および予測しそれらの結果を通知するための通知プログラム312などが記憶される。なお、図示は省略するが、中央制御装置16を動作させるためのプログラムには、通知するメッセージを作成するためのプログラムなども含まれる。   FIG. 9 is an illustrative view showing one example of a memory map of the memory 82 of the central controller 16 shown in FIG. As shown in FIG. 9, the memory 82 includes a program area 302 and a data storage area 304. The program storage area 302 acquires information from each sensor as a program for operating the central control device 16, recognizes and predicts the crying behavior and the acquisition program 310 for storing the environmental data in the environmental data table. A notification program 312 for notifying the result is stored. Although illustration is omitted, the program for operating the central control device 16 includes a program for creating a message to be notified.

データ記憶領域304には、環境データテーブル330および地図データ332などが記憶されると共に、食事フラグ334および睡眠フラグ336などが設けられる。環境データテーブル330は、たとえば図6に示す構成のテーブルであり、環境データが記憶される。地図データ332は、たとえば図5に示すように家具が配置される位置を示す地図のデータである。   The data storage area 304 stores an environmental data table 330, map data 332, and the like, and is provided with a meal flag 334, a sleep flag 336, and the like. The environmental data table 330 is, for example, a table having the configuration shown in FIG. 6, and stores environmental data. The map data 332 is map data indicating positions where furniture is arranged as shown in FIG. 5, for example.

食事フラグ334は、食事をしていない時間「FT」を計測するときに利用されるフラグである。たとえば、食事フラグ334は、1ビットのレジスタで構成される。食事フラグ334がオン(成立)されると、レジスタにはデータ値「1」が設定される。一方、食事フラグ334がオフ(不成立)されると、レジスタにはデータ値「0」が設定される。食事フラグ334は、たとえば保育者によって子どもが食事を行ったと通知されるとオンとなる。食事フラグ334がオンにされると、食事をしていない時間「FT」をカウントするための変数が初期化され、食事をしていない時間「FT」の計測が開始される。   The meal flag 334 is a flag used when measuring the time “FT” when no meal is taken. For example, the meal flag 334 is composed of a 1-bit register. When the meal flag 334 is turned on (established), a data value “1” is set in the register. On the other hand, when the meal flag 334 is turned off (not established), a data value “0” is set in the register. The meal flag 334 is turned on when, for example, the childcare person notifies that the child has eaten. When the meal flag 334 is turned on, a variable for counting the time “FT” not eating is initialized, and measurement of the time “FT” not eating is started.

睡眠フラグ336は、起き続けている時間「WT」を計測するときに利用されるフラグである。睡眠フラグ336は、たとえば子どもが就寝したと判断されるとオンとなる。睡眠フラグ336がオンにされると、起き続けている時間「WT」と対応する変数のカウントが停止する。そして、子どもが起床したと判断されるとオフとなり、起き続けている時間「WT」と対応する変数が初期化され、起き続けている時間の計測が開始される。   The sleep flag 336 is a flag used when measuring the time “WT” during which the user continues to wake up. The sleep flag 336 is turned on, for example, when it is determined that the child has gone to bed. When the sleep flag 336 is turned on, the count of the variable corresponding to the time “WT” during which the sleep is continued is stopped. Then, when it is determined that the child has woken up, it is turned off, the variable corresponding to the time “WT” that continues to wake up is initialized, and measurement of the time that has continued to wake up is started.

なお、図示は省略するが、データ記憶領域304には、様々な計算の結果を一時的に格納するバッファや、中央制御装置16の動作に必要な他のカウンタやフラグなども設けられる。   Although not shown, the data storage area 304 is also provided with a buffer for temporarily storing the results of various calculations, and other counters and flags necessary for the operation of the central controller 16.

中央制御装置16のプロセッサ80は、Linux(登録商標)ベースのOSや、その他のOSの制御下で、図10に示す取得処理および図11に示す通知処理などを含む、複数のタスクを処理する。   The processor 80 of the central control device 16 processes a plurality of tasks including the acquisition process shown in FIG. 10 and the notification process shown in FIG. 11 under the control of the Linux (registered trademark) -based OS and other OSs. .

図10は取得処理のフロー図である。中央制御装置16の電源がオンにされ、取得処理の実行命令が出されると、取得処理が実行される。なお、取得処理の実行命令は、第1時間毎に出される。   FIG. 10 is a flowchart of the acquisition process. When the central controller 16 is turned on and an execution command for the acquisition process is issued, the acquisition process is executed. An execution instruction for the acquisition process is issued every first time.

取得処理が実行されると、プロセッサ80はステップS1で、現在時刻を取得する。たとえば、プロセッサ80が有するRTCから現在時刻を取得する。続いて、ステップS3でプロセッサ80は、距離画像センサ12の情報を取得する。つまり、プロセッサ80は、距離画像センサ12が出力する奥行情報および音声信号を取得する。   When the acquisition process is executed, the processor 80 acquires the current time in step S1. For example, the current time is acquired from the RTC that the processor 80 has. Subsequently, in step S3, the processor 80 acquires information of the distance image sensor 12. That is, the processor 80 acquires the depth information and the audio signal output from the distance image sensor 12.

続いて、ステップS5でプロセッサ80は、マイク14から音声信号を取得する。つまり、プロセッサ80は、音情報を算出するために、マイク14によって集音された音声の音声信号を取得する。続いて、ステップS7でプロセッサ80は、各時間を算出する。つまり、食事をしていない時間「FT」および起き続けている時間「WT」のそれぞれが、対応する変数に基づいて算出される。なお、ステップS5の処理を実行するプロセッサ80は第1取得手段として機能する。   Subsequently, in step S5, the processor 80 acquires an audio signal from the microphone 14. That is, the processor 80 acquires a sound signal of the sound collected by the microphone 14 in order to calculate sound information. Subsequently, in step S7, the processor 80 calculates each time. In other words, each of the time “FT” not having a meal and the time “WT” continuing to wake up is calculated based on the corresponding variable. The processor 80 that executes the process of step S5 functions as a first acquisition unit.

続いて、ステップS9でプロセッサ80は、環境データを作成する。つまり、奥行き情報から子どもの位置情報が計算され、複数のマイク14および距離画像センサ12のマイク64から音声(雑音)の音量の平均、最大および周波数が計算される。そして、これらの値とステップS7で算出された各時間とが1つの環境データとされる。   Subsequently, in step S9, the processor 80 creates environment data. That is, the child position information is calculated from the depth information, and the average, maximum, and frequency of the sound (noise) volume are calculated from the plurality of microphones 14 and the microphones 64 of the distance image sensor 12. These values and each time calculated in step S7 are used as one environment data.

続いて、ステップS11でプロセッサ80は、現在時刻および環境データを記憶する。つまり、ステップS1で取得された現在時刻の情報に環境データが関連付けられ、環境データテーブル330に記憶される。そして、ステップS11の処理が終了すると、プロセッサ80は取得処理を終了する。   Subsequently, in step S11, the processor 80 stores the current time and environment data. That is, the environmental data is associated with the current time information acquired in step S <b> 1 and stored in the environmental data table 330. Then, when the process of step S11 ends, the processor 80 ends the acquisition process.

図11は通知処理のフロー図である。中央制御装置16の電源がオンにされ、通知処理の実行命令が出されると、通知処理が実行される。なお、通知処理の実行命令は、第2時間毎に出される。   FIG. 11 is a flowchart of the notification process. When the central controller 16 is turned on and a notification processing execution command is issued, the notification processing is executed. An instruction to execute the notification process is issued every second time.

通知処理が実行されると、ステップS31でプロセッサ80は、空間に子どもが居るか否かを判断する。つまり、距離画像センサ12によって子どもの位置が検出されているかが判断される。ステップS31で“NO”であれば、つまり空間に子どもがいなければ、プロセッサ80は通知処理を終了する。   When the notification process is executed, the processor 80 determines whether or not there is a child in the space in step S31. That is, it is determined whether the position of the child is detected by the distance image sensor 12. If “NO” in the step S31, that is, if there is no child in the space, the processor 80 ends the notification process.

ステップS31で“YES”であれば、つまり空間の中で子どもの位置が検出されていれば、ステップS33でプロセッサ80は、現在時刻から第2時間分の第1判定情報を取得する。つまり、子どもの位置情報と、音情報における音の平均および周波数と、食事をしていない時間と、起き続けている時間とが、環境データテーブル330から読み出される。続いて、ステップS35でプロセッサ80は、泣き行動認識処理を実行する。つまり、第2時間分の第1判定情報が、泣き行動を認識する判定モデルに入力される。なお、ステップS35の処理を実行するプロセッサ80は認識手段として機能する。   If “YES” in the step S31, that is, if the position of the child is detected in the space, the processor 80 acquires the first determination information for the second time from the current time in a step S33. That is, the position information of the child, the average and frequency of the sound in the sound information, the time of not eating, and the time of waking up are read from the environment data table 330. Subsequently, in step S35, the processor 80 executes a crying action recognition process. That is, the first determination information for the second time is input to the determination model for recognizing crying behavior. The processor 80 that executes the process of step S35 functions as a recognition unit.

続いて、ステップS37でプロセッサ80は、泣き行動が行われているか否かを判断する。つまり、プロセッサ80は、第1閾値よりも大きい確率の泣き行動の原因が上記判定モデルから出力されたかを判断する。ステップS37で“YES”であれば、つまり子どもが泣き行動を行っていると認識されると、ステップS39でプロセッサ80は、泣き行動が行われていることを通知する。たとえば、図8(A)に示すように、泣き行動の原因を知らせるメッセージが、中央制御装置16から携帯端末10に送信される。なお、ステップS39の処理を実行するプロセッサ80は第2通知手段として機能する。   Subsequently, in step S37, the processor 80 determines whether or not a crying action is being performed. That is, the processor 80 determines whether the cause of the crying behavior with a probability larger than the first threshold is output from the determination model. If “YES” in the step S37, that is, if it is recognized that the child is performing a crying action, the processor 80 notifies that the crying action is performed in a step S39. For example, as shown in FIG. 8A, a message notifying the cause of crying behavior is transmitted from the central control device 16 to the portable terminal 10. The processor 80 that executes the process of step S39 functions as a second notification unit.

一方、ステップS37で“NO”であれば、たとえば泣き行動が行われていないとの認識結果が出力されると、ステップS41でプロセッサ80は、現在時刻から第2時間分の第2判定情報を取得する。つまり、子どもの位置情報および音情報における音の最大が環境データテーブル330から読み出される。続いて、ステップS43でプロセッサ80は、泣き行動予測処理を実行する。たとえば、第2時間分の第2判定情報が、泣き行動を予測する判定モデルに入力される。なお、ステップS41の処理を実行するプロセッサ80は第2取得手段として機能する。また、ステップS43の処理を実行するプロセッサ80は予測手段として機能する。   On the other hand, if “NO” in the step S37, for example, if a recognition result indicating that the crying action is not performed is output, the processor 80 in the step S41 obtains the second determination information for the second time from the current time. get. That is, the maximum sound in the child position information and sound information is read from the environment data table 330. Subsequently, in step S43, the processor 80 executes a crying behavior prediction process. For example, the second determination information for the second time is input to a determination model that predicts crying behavior. Note that the processor 80 that executes the process of step S41 functions as a second acquisition unit. Moreover, the processor 80 which performs the process of step S43 functions as a prediction means.

続いて、ステップS45でプロセッサ80は、予測結果の確率が第2閾値よりも大きいか否かを判断する。つまり、所定時間後に泣き行動が行われる確率が、第2閾値よりも大きいかが判断される。ステップS45で“YES”であれば、つまり所定時間後に泣き行動が行われる確率が第2閾値よりも大きければ、ステップS47でプロセッサ80は、所定時間内に泣き行動が行われることを通知する。たとえば、図8(B)に示すように、所定時間内に泣き行動が行われることを知らせるメッセージが、中央制御装置16から携帯端末10に送信される。なお、ステップS47の処理を実行するプロセッサ80は第1通知手段として機能する。   Subsequently, in step S45, the processor 80 determines whether or not the probability of the prediction result is larger than the second threshold value. That is, it is determined whether the probability that the crying action is performed after a predetermined time is greater than the second threshold. If “YES” in the step S45, that is, if the probability that the crying action is performed after a predetermined time is larger than the second threshold value, the processor 80 notifies that the crying action is performed within the predetermined time in a step S47. For example, as shown in FIG. 8B, a message notifying that a crying action is performed within a predetermined time is transmitted from the central control device 16 to the mobile terminal 10. The processor 80 that executes the process of step S47 functions as a first notification unit.

そして、ステップS45で“NO”、つまり予測結果の確率が第2閾値よりも小さいか、ステップS47の処理が終了すると、プロセッサ80は通知処理を終了する。   Then, if “NO” in step S45, that is, if the probability of the prediction result is smaller than the second threshold value, or if the process of step S47 ends, the processor 80 ends the notification process.

なお、実施例では、機械学習手法としてSVMを採用したが、他の実施例では、重回帰分析、ニューラルネットワークまたはC4.5などのアルゴリズムが採用されてもよい。たとえば、重回帰分析が採用された場合、第1判定情報または第2判定情報の各値を説明変数として係数が計算される。この場合に、泣き行動の認識結果の確率をPとし、子どもが落下したり衝突したりした際の音の音量をXとした場合、重回帰分析によって数1の数式が得られる。   In the embodiment, SVM is adopted as the machine learning method, but in other embodiments, an algorithm such as multiple regression analysis, neural network, or C4.5 may be adopted. For example, when multiple regression analysis is employed, the coefficient is calculated using each value of the first determination information or the second determination information as an explanatory variable. In this case, when the probability of the recognition result of the crying behavior is P and the sound volume when the child falls or collides is X, the mathematical formula 1 is obtained by multiple regression analysis.

[数1]
P=aX
このとき、音量Xが「80dB」の場合、係数aは「a=1/80」となり、音量Xが「80」のときに、「P=1」つまり「100%」となる。
[Equation 1]
P = aX
At this time, when the volume X is “80 dB”, the coefficient a is “a = 1/80”, and when the volume X is “80”, “P = 1”, that is, “100%”.

また、その他の実施例では、機械学習は利用せずに、単純な閾値処理としてもよい。空間の中の音の平均が高い状態では、子どもが怖がって泣き行動を行う可能性が高い。そのため、音の平均が第1所定値よりも高い場合は、所定時間内に泣き行動が行われると予測するようにしてもよい。つまり、空間内で発生した音の最大値を利用して、子どもの泣き行動を予測することが出来る。   In other embodiments, a simple threshold process may be used without using machine learning. When the average sound in the space is high, the child is likely to be afraid and cry. Therefore, when the average of the sound is higher than the first predetermined value, it may be predicted that the crying behavior will be performed within a predetermined time. In other words, the child's crying behavior can be predicted using the maximum value of the sound generated in the space.

さらに、子どもが痛みを感じているときの泣き声の周波数は第2所定値より大きいことが多い。そのため、音の周波数が第2所定よりも大きい場合は、痛みを感じて泣き行動が行われていると認識されるようにしてもよい。つまり、空間内で発生した音の周波数を利用して、子どもの泣き行動を認識することが出来る。   Furthermore, the frequency of the cry when the child feels pain is often greater than the second predetermined value. Therefore, when the frequency of the sound is higher than the second predetermined value, it may be recognized that a crying action is performed with a pain. In other words, the child's crying behavior can be recognized using the frequency of the sound generated in the space.

なお、さらにその他の実施例では、子どもの位置情報に加えて、子どもの姿勢(たとえば、頭部の向き(θ)および両肩の向き(θ))が算出されてもよい。 In yet another embodiment, in addition to the child position information, the child's posture (for example, head orientation (θ H ) and shoulder orientations (θ B )) may be calculated.

また、他の実施例の環境データには、子どもの顔認識の結果(表情)、音の低音の強度、テレビなどから出力されるコンテンツの内容および子どもの姿勢などが含まれていてもよい。また、空間内で発生する衝突や落下などを識別可能である場合は、そのときの音の音情報などが含まれていてもよい。そして、泣き行動を認識する際には、子どもの表情、子どもの姿勢、音の最大なども利用されてもよい。また、泣き行動を予測する際には、子どもの表情、子どもの位置情報の変化(落下による、高さ方向の変化)、音の平均、低音の強度、衝突・落下時の音の音量、コンテンツの内容なども利用されてもよい。   In addition, the environmental data of other embodiments may include a result of facial recognition (expression) of the child, the intensity of the bass sound, the content of the content output from the television, the posture of the child, and the like. In addition, when it is possible to identify a collision or a drop that occurs in the space, sound information of the sound at that time may be included. When recognizing the crying behavior, the child's facial expression, the child's posture, the maximum sound may be used. Also, when predicting crying behavior, children's facial expressions, changes in children's location information (changes in the height direction due to falling), sound average, bass intensity, sound volume at the time of collision / dropping, content May also be used.

また、泣き行動を認識するための第1閾値および泣き行動を予測するための第2閾値は、保育者によって任意に設定されてもよいし、中央制御装置16によって自動的に設定されてもよい。   Further, the first threshold value for recognizing the crying behavior and the second threshold value for predicting the crying behavior may be arbitrarily set by the childcare worker, or may be automatically set by the central control device 16. .

また、携帯端末10に送信されるメッセージは、Eメールによって送信されてよいし、専用のソフトウェアを利用して送信されてもよい。また、メッセージを送信する先は、携帯端末10だけに限らずPCなどの端末などに送信されてもよい。また、文字によるメッセージに代えて、泣き行動が認識または予測された時間から第2時間前までの状況を伝える映像や音声が、携帯端末10に送信されてもよい。   The message transmitted to the mobile terminal 10 may be transmitted by e-mail or may be transmitted using dedicated software. Further, the destination of the message transmission is not limited to the portable terminal 10 and may be transmitted to a terminal such as a PC. Further, instead of the text message, video or audio that conveys the situation from the time when the crying behavior is recognized or predicted to the second time before may be transmitted to the mobile terminal 10.

また、泣き行動の原因は、実施例のものとは異なっていてもよいし、数が異なっていてもよい。   Further, the cause of the crying behavior may be different from that in the embodiment or the number may be different.

また、その他の実施例では、空間の音情報だけを利用して、泣き行動が認識または予測されてもよい。また、通知処理では、泣き行動を予測して通知するだけでもよいし、泣き行動を認識して通知するだけでもよい。さらに、泣き行動が予測された後に、泣き行動が認識されるようにしてもよい。   In other embodiments, the crying behavior may be recognized or predicted using only the sound information of the space. In the notification process, the crying behavior may be predicted and notified, or the crying behavior may be recognized and notified. Further, the crying behavior may be recognized after the crying behavior is predicted.

また、上述の実施例では、閾値に対して「より大きい」の言葉を用いたが「閾値より大きい」とは「閾値以上」の意味も含まれる。また、「閾値よりも小さい」とは「閾値以下」および「閾値未満」の意味も含まれる。   In the above-described embodiment, the word “greater than” is used for the threshold value, but “greater than the threshold value” includes the meaning of “greater than or equal to the threshold value”. Further, “smaller than a threshold” includes the meanings of “below the threshold” and “below the threshold”.

また、本実施例で説明した複数のプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して本実施例と同等の構成のシステムに配信されてもよい。また、CD, DVD, BD (Blu-ray(登録商標) Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体にこれらのプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、上記複数のプログラムが、本実施例と同等の構成のシステムに適用された場合、本実施例と同等の効果が得られる。   In addition, the plurality of programs described in the present embodiment may be stored in the HDD of a data distribution server and distributed to a system having the same configuration as that of the present embodiment via a network. In addition, storage programs such as CDs, DVDs, and BDs (Blu-ray (registered trademark) Disc) are sold or distributed with these programs stored in storage media such as USB memory and memory card. May be. When the plurality of programs downloaded through the server and storage medium described above are applied to a system having the same configuration as that of this embodiment, the same effect as that of this embodiment can be obtained.

そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。   The specific numerical values given in this specification are merely examples, and can be appropriately changed according to a change in product specifications.

10 …携帯端末
12a,12b …距離画像センサ
14a,14b …マイク
16 …中央制御装置
64 …マイク
80 …プロセッサ
82 …メモリ
100 …通知システム
1000 …ネットワーク
DESCRIPTION OF SYMBOLS 10 ... Portable terminal 12a, 12b ... Distance image sensor 14a, 14b ... Microphone 16 ... Central control device 64 ... Microphone 80 ... Processor 82 ... Memory 100 ... Notification system 1000 ... Network

Claims (8)

子どもが居る空間内で発生する音の音情報を取得する第1取得手段、
前記音情報に基づいて前記子どもが泣き行動を行うかを予測する予測手段、および
前記子どもが泣き行動を行うと予測されたとき、予測結果を通知する第1通知手段を備える、通知システム。
First acquisition means for acquiring sound information of a sound generated in a space where a child is present;
A notification system comprising: prediction means for predicting whether the child performs crying behavior based on the sound information; and first notification means for notifying a prediction result when the child is predicted to perform crying behavior.
前記空間内の子どもの位置情報を取得する第2取得手段をさらに備え、
前記予測手段は、前記子どもの位置情報および前記音情報に基づいて前記子どもが泣き行動を行うかを予測する、請求項1記載の通知システム。
Further comprising second acquisition means for acquiring position information of the child in the space;
The notification system according to claim 1, wherein the prediction unit predicts whether the child performs a crying behavior based on the position information of the child and the sound information.
前記音情報は、前記空間内で発生した音の音量の最大値を含み、
前記予測手段は、前記音量の最大値に基づいて、前記子どもが泣き行動を行うかを予測する、請求項1または2記載の通知システム。
The sound information includes a maximum value of a sound volume generated in the space,
The notification system according to claim 1, wherein the prediction unit predicts whether the child performs crying behavior based on the maximum value of the volume.
前記音情報に基づいて前記子どもが行う泣き行動を認識する認識手段、および、
前記子どもの泣き行動が認識されたとき、認識結果を通知する第2通知手段をさらに備える、請求項1ないし3のいずれかに記載の通知システム。
Recognizing means for recognizing the crying action performed by the child based on the sound information; and
The notification system according to claim 1, further comprising second notification means for notifying a recognition result when the child's crying behavior is recognized.
前記認識手段は、前記子どもの泣き行動と共に、その泣き行動の原因も認識し、
前記第2通知手段は、前記子どもの泣き行動が認識されたとき、前記泣き行動の原因を通知する、請求項4記載の通知システム。
The recognizing means recognizes the cause of the crying behavior together with the crying behavior of the child,
The notification system according to claim 4, wherein when the child's crying behavior is recognized, the second notification means notifies the cause of the crying behavior.
通知システムのプロセッサを、
子どもが居る空間内で発生する音の音情報を取得する取得手段、
前記音情報に基づいて前記子どもが泣き行動を行うかを予測する予測手段、および
前記子どもが泣き行動を行うと予測されたとき、予測結果を通知する通知手段として機能させる、通知プログラム。
Notification system processor,
An acquisition means for acquiring sound information of sounds generated in a space where children are present,
A predicting means for predicting whether the child performs a crying behavior based on the sound information, and a notification program that functions as a notification means for notifying a prediction result when the child is predicted to perform a crying behavior.
通知システムのプロセッサが、
子どもが居る空間内で発生する音の音情報を取得する取得ステップ、
前記音情報に基づいて前記子どもが泣き行動を行うかを予測する予測ステップ、および
前記子どもが泣き行動を行うと予測されたとき、予測結果を通知する通知ステップを実行する、通知方法。
The notification system processor
An acquisition step for acquiring sound information of a sound generated in a space where a child is present;
A notification method for executing a prediction step of predicting whether or not the child performs a crying behavior based on the sound information, and a notification step of notifying a prediction result when the child is predicted to perform a crying behavior.
子どもが居る空間内で発生する音の音情報を取得する取得手段、
前記音情報に基づいて前記子どもが泣き行動を行うかを予測する予測手段、および
前記子どもが泣き行動を行うと予測されたとき、予測結果を通知する通知手段を備える、通知装置
An acquisition means for acquiring sound information of sounds generated in a space where children are present,
A notification device comprising: prediction means for predicting whether the child performs crying behavior based on the sound information; and notification means for notifying a prediction result when the child is predicted to perform crying behavior .
JP2014004045A 2014-01-14 2014-01-14 Notification system, notification program, notification method, and notification device Active JP6347347B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014004045A JP6347347B2 (en) 2014-01-14 2014-01-14 Notification system, notification program, notification method, and notification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014004045A JP6347347B2 (en) 2014-01-14 2014-01-14 Notification system, notification program, notification method, and notification device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2015037517A Division JP6340626B2 (en) 2015-02-27 2015-02-27 Notification system, notification program, notification method, and notification device

Publications (2)

Publication Number Publication Date
JP2015133611A JP2015133611A (en) 2015-07-23
JP6347347B2 true JP6347347B2 (en) 2018-06-27

Family

ID=53900526

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014004045A Active JP6347347B2 (en) 2014-01-14 2014-01-14 Notification system, notification program, notification method, and notification device

Country Status (1)

Country Link
JP (1) JP6347347B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6577627B1 (en) * 2018-05-09 2019-09-18 株式会社クリューシステムズ Video surveillance system and method and imaging apparatus
WO2020158979A1 (en) * 2019-02-01 2020-08-06 엘지전자 주식회사 Electronic device and control method therefor
CN112287821B (en) * 2020-10-28 2023-08-11 业成科技(成都)有限公司 Caretaking behavior monitoring method, device, computer equipment and storage medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11102493A (en) * 1997-09-26 1999-04-13 Yoshimasa Tani Device for notifying cries
JP2002074560A (en) * 2000-08-30 2002-03-15 Tamotsu Miyamoto Monitoring system
JP3564501B2 (en) * 2001-03-22 2004-09-15 学校法人明治大学 Infant voice analysis system
JP2002298255A (en) * 2001-03-30 2002-10-11 Sogo Keibi Hosho Co Ltd Security device and security system
JP2005309965A (en) * 2004-04-23 2005-11-04 Matsushita Electric Works Ltd Home security device
JP4794846B2 (en) * 2004-10-27 2011-10-19 キヤノン株式会社 Estimation apparatus and estimation method

Also Published As

Publication number Publication date
JP2015133611A (en) 2015-07-23

Similar Documents

Publication Publication Date Title
US11516040B2 (en) Electronic device and method for controlling thereof
US9984590B2 (en) Identifying a change in a home environment
US11429189B2 (en) Monitoring
KR102032662B1 (en) Human-computer interaction with scene space monitoring
JP6459172B2 (en) Wakeup notification system, wakeup notification program, wakeup notification method, and wakeup notification device
JP6093124B2 (en) Supervisory system
US10721347B2 (en) Detecting patterns and behavior to prevent a mobile terminal drop event
EP3637228A2 (en) Real-time motion feedback for extended reality
JP6347347B2 (en) Notification system, notification program, notification method, and notification device
US20240095143A1 (en) Electronic device and method for controlling same
JP6665276B2 (en) Trigger area
KR102150623B1 (en) Method and system for analyzing baby behavior
JP6340626B2 (en) Notification system, notification program, notification method, and notification device
JP6281164B2 (en) Play action recognition system, play action recognition program, play action recognition method, and play action recognition apparatus
US20210392193A1 (en) Information processing device and information processing method
JP6711799B2 (en) Device control device, device control method, and device control system
TWM486114U (en) Automatic care device
JP2015122004A (en) Nursing action recognition system, nursing action recognition program, nursing action recognition method, and nursing action recognition apparatus
JP2018060248A (en) Processing result abnormality detection apparatus, processing result abnormality detection program, processing result abnormality detection method and moving body
TW201724084A (en) System and method for interpreting baby language
TWI601033B (en) Management methods and systems for movement detection, and related computer program products
CN110427155B (en) Nursing method and device
JP2018143639A (en) User state prospecting apparatus with interaction and method thereof
JP2009265990A (en) Information processing apparatus, information processing method, and program
JP7469044B2 (en) Information processing device, information processing method, and recording medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180424

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180516

R150 Certificate of patent or registration of utility model

Ref document number: 6347347

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250