JP2015133608A - Wake-up notification system, wake-up notification program, wake-up notification method, and wake-up notification device - Google Patents

Wake-up notification system, wake-up notification program, wake-up notification method, and wake-up notification device Download PDF

Info

Publication number
JP2015133608A
JP2015133608A JP2014004014A JP2014004014A JP2015133608A JP 2015133608 A JP2015133608 A JP 2015133608A JP 2014004014 A JP2014004014 A JP 2014004014A JP 2014004014 A JP2014004014 A JP 2014004014A JP 2015133608 A JP2015133608 A JP 2015133608A
Authority
JP
Japan
Prior art keywords
wake
child
notification
time
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014004014A
Other languages
Japanese (ja)
Other versions
JP6459172B2 (en
Inventor
昌裕 塩見
Masahiro Shiomi
昌裕 塩見
敬宏 宮下
Takahiro Miyashita
敬宏 宮下
萩田 紀博
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2014004014A priority Critical patent/JP6459172B2/en
Publication of JP2015133608A publication Critical patent/JP2015133608A/en
Application granted granted Critical
Publication of JP6459172B2 publication Critical patent/JP6459172B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Alarm Systems (AREA)
  • Selective Calling Equipment (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Electric Clocks (AREA)

Abstract

PROBLEM TO BE SOLVED: To reduce a burden on a nursing person by enabling the nursing person to grasp timing of a child waking up to prepare nursing action by using a period until the child wakes up.SOLUTION: A wake-up notification system (100) used in a space in which a child is sleeping includes a robot 10, a distance image sensor 12, a mic 14, a temperature sensor 16, a humidity sensor 18, and an illuminance sensor 20 which are provided around the child. The wake-up notification system (100) acquires wake-up factors for predicting a wake-up of the child by using these sensors; inputs the factors to a determination model created by a machine learning method for outputting, as a prediction result, a probability of a wakeup after a predetermined period; determines that the child is to wake up within the predetermined period when the possibility of the prediction result is higher than a threshold; and transmits a message for notifying that the child wakes up within the predetermined period to a portable terminal 22 of a nursing person.

Description

この発明は、起床通知システム、起床通知プログラム、起床通知方法および起床通知装置に関し、特にたとえば、寝ている子ども対して利用可能な、起床通知システム、起床通知プログラム、起床通知方法および起床通知装置に関する。   The present invention relates to a wake-up notification system, a wake-up notification program, a wake-up notification method, and a wake-up notification device, and more particularly to, for example, a wake-up notification system, a wake-up notification program, a wake-up notification method, and a wake-up notification device that can be used for sleeping children. .

背景技術の一例が特許文献1に開示されている。この特許文献1の目覚ましシステムでは、ユーザの生命体情報に基づいて、睡眠中のユーザがレム睡眠状態となる時間帯を予測することが出来る。予測された時間帯に予め決められた起床予定時刻が含まれている場合は、その時間帯が起床時間帯として特定される。一方、予測された時間帯に起床予定時刻が含まれていない場合は、最も近い時間帯が起床時間帯として特定される。そして、起床時間帯において起床予定時刻に最も近い時刻が起床時刻と特定される。   An example of background art is disclosed in Patent Document 1. In the alarm system of this patent document 1, the time slot | zone when the user during sleep will be in a REM sleep state can be estimated based on a user's life form information. If the predicted time zone includes a predetermined scheduled wake-up time, the time zone is specified as the wake-up time zone. On the other hand, when the estimated wake-up time is not included in the predicted time zone, the closest time zone is specified as the wake-up time zone. Then, the time closest to the scheduled wake-up time in the wake-up time zone is specified as the wake-up time.

特開2005-311534号公報[H04M 3/42, H04M 1/00, H04M 1/725, H04M 3/493]JP 2005-311534 [H04M 3/42, H04M 1/00, H04M 1/725, H04M 3/493]

ところが、特許文献1の目覚ましシステムでは、起床予定時刻を予め決めていなければ、起床時刻を特定することが出来ない。そのため、目覚ましを利用していない子どもなどの場合、このシステムを利用することは出来ない。   However, in the alarm system of Patent Document 1, the wake-up time cannot be specified unless the scheduled wake-up time is determined in advance. Therefore, this system cannot be used for children who do not use alarms.

それゆえに、この発明の主たる目的は、新規な、起床通知システム、起床通知プログラム、起床通知方法および起床通知装置を提供することである。   Therefore, a main object of the present invention is to provide a novel wakeup notification system, wakeup notification program, wakeup notification method, and wakeup notification device.

この発明の他の目的は、保育者の負担を軽減することが出来る、起床通知システム、起床通知プログラム、起床通知方法および起床通知装置を提供することである。   Another object of the present invention is to provide a wake-up notification system, a wake-up notification program, a wake-up notification method, and a wake-up notification device that can reduce the burden on the childcare worker.

この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。   The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.

第1の発明は、起床因子を取得する取得手段、起床因子によって子どもが起床するかを予測する予測手段、および子どもが起床すると予測されたとき、予測結果を通知する通知手段を備える、起床通知システムである。   The first invention comprises an acquisition means for acquiring a wake-up factor, a prediction means for predicting whether a child wakes up by the wake-up factor, and a notification means for notifying a prediction result when the child is predicted to wake up. System.

第1の発明では、起床通知システム(100:実施例において対応する部分を例示する参照符号。以下、同じ。)は、たとえば子どもがベッドで寝ている空間で利用される。取得手段(80,S3−S13)は、たとえばベッドの周辺に配置された距離画像センサ(12)、マイク(14)、温度センサ(16)、湿度センサ(18)および照度センサ(20)などを利用して、寝ている子どもの起床を予測するために起床因子を取得する。たとえば、取得された起床因子を教師データとし、その教師データをSVMなどの機械学習手法によって学習することで、判別モデルが作成される。予測手段(80,S35)は、たとえばこのようにして作成された判別モデルを利用して、所定時間内に子どもが起床するかを予測する。通知手段(80,S39)は、たとえば所定時間内に子どもが起床すると予測されると、保育者が所持する携帯端末(22)などに対して予測結果を通知する。   In the first invention, the wake-up notification system (100: reference numerals exemplifying corresponding parts in the embodiment, hereinafter the same) is used, for example, in a space where a child is sleeping on a bed. The acquisition means (80, S3-S13) includes, for example, a distance image sensor (12), a microphone (14), a temperature sensor (16), a humidity sensor (18), and an illuminance sensor (20) arranged around the bed. Use it to get a wake-up factor to predict the wake-up of a sleeping child. For example, a discrimination model is created by using the acquired wake-up factor as teacher data and learning the teacher data by a machine learning technique such as SVM. The predicting means (80, S35) predicts whether or not the child will wake up within a predetermined time by using, for example, the discrimination model created in this way. A notification means (80, S39) notifies a prediction result with respect to the portable terminal (22) etc. which a childcare person possesses, for example, when a child is predicted to get up within a predetermined time.

第1の発明によれば、保育者は、子どもが起床するタイミングを把握することが出来るため、子どもが起床するまでの時間を利用して保育行動の準備をすることが出来る。したがって、保育者の負担が軽減される。   According to the first invention, since the childcare person can grasp the timing when the child wakes up, the childcare person can prepare for childcare behavior using the time until the child wakes up. Therefore, the burden on the childcare worker is reduced.

第2の発明は、第1の発明に従属し、起床因子は、子どもが居る空間で発生した音の音量の最大値を含み、予測手段は、最大値を利用して、子どもが起床するかを予測する。   The second invention is dependent on the first invention, the wake-up factor includes a maximum value of a sound volume generated in a space where the child is present, and the predicting means uses the maximum value to determine whether the child wakes up. Predict.

第2の発明では、たとえば、空間内で大きな音が発生すると子どもが起床する可能性が高くなる。そのため、予測手段は、空間内で発生した音の最大値を利用して、子どもが起床するかを予測する。   In the second invention, for example, when a loud sound is generated in the space, the possibility that the child will wake up becomes high. Therefore, the predicting means predicts whether the child will get up using the maximum value of the sound generated in the space.

第2の発明によれば、空間内で発生した音の最大値を利用して、子どもの起床を予測することが出来る。   According to the second invention, the child's wake-up can be predicted using the maximum value of the sound generated in the space.

第3の発明は、第1の発明または第2の発明に従属し、起床因子は、子どもの睡眠時間を含み、予測手段は、睡眠時間を利用して、子どもが起床するかを予測する。   A third invention is dependent on the first invention or the second invention, the wake-up factor includes the sleep time of the child, and the predicting means predicts whether the child wakes up using the sleep time.

第3の発明では、たとえば、子どもの睡眠時間が平均睡眠時間よりも長くなると、子どもが起床する可能性が高くなる。そのため、予測手段は、子どもの睡眠時間を利用して、子どもが起床するかを予測する。   In the third invention, for example, when the sleeping time of the child is longer than the average sleeping time, the possibility that the child wakes up increases. Therefore, the predicting means predicts whether or not the child will wake up using the sleeping time of the child.

第3の発明によれば、子どもの睡眠時間を利用して、子どもの起床を予測することが出来る。   According to the third aspect, the child's sleep time can be used to predict the child's wake-up.

第4の発明は、第1の発明ないし第3の発明のいずれかに従属し、コンテンツを出力するロボットをさらに備え、子どもが起床すると予測されたとき、ロボットがコンテンツを出力する。   A fourth invention is according to any one of the first to third inventions, further comprising a robot that outputs content, and when the child is predicted to wake up, the robot outputs the content.

第4の発明では、ロボット(10)は、たとえば子どもが寝ているベッドの手すりに配置され、挨拶などのコンテンツを出力する。たとえば、ロボットは子どもが起床すると予測されるとスタンバイ状態からアクティブ状態に遷移して、ロボットがコンテンツを出力する。   In the fourth invention, the robot (10) is arranged, for example, on a handrail of a bed where a child is sleeping, and outputs content such as a greeting. For example, when it is predicted that a child will wake up, the robot changes from a standby state to an active state, and the robot outputs content.

第4の発明によれば、子どもが起床してから行う保育行動が補助されるため、保育者の負担が軽減される。   According to the fourth aspect of the invention, since the childcare action that is performed after the child gets up is assisted, the burden on the childcare worker is reduced.

第5の発明は、第4の発明に従属し、子どもが起床したかを判断する判断手段をさらに備え、子どもが起床したと判断されたとき、ロボットがコンテンツを出力する。   The fifth invention is dependent on the fourth invention and further comprises a judging means for judging whether the child has woken up, and when it is judged that the child has woken up, the robot outputs the content.

第5の発明では、判断手段(36,S63,S65)は、たとえば子どもの顔を撮影し、撮影した画像に対して画像認識処理を加えることで、子どもが起床したかを判断する。そして、子どもが起床したと判断されると、ロボットがコンテンツを出力する。   In the fifth invention, the determination means (36, S63, S65), for example, captures the child's face and applies image recognition processing to the captured image to determine whether the child has woken up. When it is determined that the child has woken up, the robot outputs the content.

第5の発明によれば、子どもに対するコンテンツの出力が適切なタイミングで行われる。   According to the fifth aspect, the content is output to the child at an appropriate timing.

第6の発明は、起床通知システムのプロセッサ(80)を、起床因子を取得する取得手段(S3−S13)、起床因子によって子どもが起床するかを予測する予測手段(S35)、および子どもが起床すると予測されたとき、予測結果を通知する通知手段(S39)として機能させる、起床予測プログラムである。   The sixth invention provides a processor (80) of the wake-up notification system for obtaining means (S3-S13) for obtaining a wake-up factor, predicting means (S35) for predicting whether the child wakes up by the wake-up factor, and Then, when predicted, this is a wake-up prediction program that functions as notifying means (S39) for notifying the prediction result.

第6の発明でも、第1の発明と同様、保育者は、子どもが起床するタイミングを把握することが出来るため、子どもが起床するまでの時間を利用して保育行動の準備をすることが出来る。   In the sixth invention as well, as in the first invention, the childcare worker can grasp the timing when the child wakes up, and can use the time until the child wakes up to prepare for childcare behavior. .

第7の発明は、起床通知システムのプロセッサ(80)が、起床因子を取得する取得ステップ(S3−S13)、起床因子によって子どもが起床するかを予測する予測ステップ(S35)、および子どもが起床すると予測されたとき、予測結果を通知する通知ステップ(S39)を実行する、起床予測方法である。   In the seventh invention, the processor (80) of the wake-up notification system acquires the wake-up factor (S3-S13), the prediction step (S35) for predicting whether the child wakes up by the wake-up factor, and the child wakes up Then, when predicted, this is a wake-up prediction method that executes a notification step (S39) of notifying the prediction result.

第7の発明でも、第1の発明と同様、保育者は、子どもが起床するタイミングを把握することが出来るため、子どもが起床するまでの時間を利用して保育行動の準備をすることが出来る。   In the seventh invention as well, as in the first invention, the childcare worker can grasp the timing when the child wakes up, and can use the time until the child wakes up to prepare for childcare behavior. .

第8の発明は、起床因子を取得する取得手段(80,S3−S13)、起床因子によって子どもが起床するかを予測する予測手段(80,S35)、および子どもが起床すると予測されたとき、予測結果を通知する通知手段(80,S39)を備える、起床通知装置である。   The eighth aspect of the invention relates to an acquisition means (80, S3-S13) for acquiring a wake-up factor, a prediction means (80, S35) for predicting whether a child wakes up by the wake-up factor, and when the child is predicted to wake up, This is a wake-up notification device including notification means (80, S39) for notifying the prediction result.

第8の発明でも、第1の発明と同様、保育者は、子どもが起床するタイミングを把握することが出来るため、子どもが起床するまでの時間を利用して保育行動の準備をすることが出来る。   In the eighth invention as well, as in the first invention, the childcare person can grasp the timing when the child wakes up, and can use the time until the child wakes up to prepare for childcare behavior. .

この発明によれば、保育者の負担を軽減することが出来る。   According to this invention, the burden on the childcare worker can be reduced.

この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1はこの発明の一実施例の起床通知システムの概要を示す図解図である。FIG. 1 is an illustrative view showing an outline of a wake-up notification system according to an embodiment of the present invention. 図2は図1に示す起床通知システムの構成の一例を示す図解図である。FIG. 2 is an illustrative view showing one example of a configuration of the wake-up notification system shown in FIG. 図3は図1に示すロボットの外観の一例を示す図解図であり、図3(A)はロボットの正面を示し、図3(B)はロボットの側面を示す。3 is an illustrative view showing an example of the appearance of the robot shown in FIG. 1, FIG. 3 (A) shows the front of the robot, and FIG. 3 (B) shows the side of the robot. 図4は図3に示すロボットの電気的な構成の一例を示すブロック図である。FIG. 4 is a block diagram showing an example of the electrical configuration of the robot shown in FIG. 図5は図1に示す距離画像センサの電気的な構成の一例を示すブロック図である。FIG. 5 is a block diagram showing an example of the electrical configuration of the distance image sensor shown in FIG. 図6は図2に示す中央制御装置の電気的な構成の一例を示すブロック図である。FIG. 6 is a block diagram showing an example of an electrical configuration of the central controller shown in FIG. 図7は図6に示す中央制御装置のメモリに記憶される環境データテーブルの構成の一例を示す図解図である。FIG. 7 is an illustrative view showing one example of a configuration of an environmental data table stored in the memory of the central control unit shown in FIG. 図8は図6に示す中央制御装置から通知されるメッセージの一例を示す図解図である。FIG. 8 is an illustrative view showing one example of a message notified from the central control apparatus shown in FIG. 図9は図6に示す中央制御装置のメモリのメモリマップの一例を示す図解図である。FIG. 9 is an illustrative view showing one example of a memory map of a memory of the central control unit shown in FIG. 図10は図4に示すロボットのメモリのメモリマップの一例を示す図解図である。10 is an illustrative view showing one example of a memory map of a memory of the robot shown in FIG. 図11は図6に示す中央制御装置のプロセッサの取得処理の一例を示すフロー図である。FIG. 11 is a flowchart showing an example of acquisition processing of the processor of the central controller shown in FIG. 図12は図6に示す中央制御装置のプロセッサの起床通知処理の一例を示すフロー図である。FIG. 12 is a flowchart showing an example of the wake-up notification process of the processor of the central controller shown in FIG. 図13は図4に示すロボットのプロセッサの起床対応処理の一例を示すフロー図である。FIG. 13 is a flowchart showing an example of the wake-up correspondence process of the processor of the robot shown in FIG.

図1を参照して、この実施例の起床通知システム100は子どもが寝ている部屋などの空間(環境)で利用される。たとえば、空間内にはベッドが配置されており、子どもはベッドの上で寝る。親や保育士などの保育者は空間内または空間の周囲におり、子どもを保育したり、家事などを行ったりしている。また、子どもの周囲には、ロボット10、距離画像センサ12、マイク14、温度センサ16、湿度センサ18および照度センサ20が設けられている。そして、保育者は携帯端末22を所持している。   With reference to FIG. 1, the wake-up notification system 100 of this embodiment is used in a space (environment) such as a room where a child is sleeping. For example, a bed is placed in the space, and the child sleeps on the bed. Parents such as parents and childcare workers are in or around the space, raising children or doing housework. A robot 10, a distance image sensor 12, a microphone 14, a temperature sensor 16, a humidity sensor 18, and an illuminance sensor 20 are provided around the child. The childcare person possesses the portable terminal 22.

ロボット10は子どもの視界に入るように設けられている。実施例では、ロボット10は、子どもの視界に入る位置としてベッドの手すりに配置されている。また、ロボット10は、挨拶や音楽などのコンテンツを出力することによって子どもの注意をひきつけることが出来る。   The robot 10 is provided so as to enter the field of view of the child. In the embodiment, the robot 10 is disposed on the handrail of the bed as a position that enters the child's field of view. The robot 10 can attract children's attention by outputting contents such as greetings and music.

距離画像センサ12は、子どもの動きを検出することを目的として、ベッドの上に設けられている。マイク14は、空間内で発生する音(雑音)を集音するために、ベッドの手すりに設けられている。温度センサ16は、子どもの周囲の温度を計測するために、ベッドの手すりに設けられている。湿度センサ18は、子どもの周囲の湿度を計測するために、ベッドの手すりに設けられている。照度センサ20は、子どもが居る空間の照度を計測するために、ベッドの手すりに設けられている。   The distance image sensor 12 is provided on the bed for the purpose of detecting the movement of the child. The microphone 14 is provided on a handrail of the bed in order to collect sound (noise) generated in the space. The temperature sensor 16 is provided on the handrail of the bed in order to measure the temperature around the child. The humidity sensor 18 is provided on the handrail of the bed in order to measure the humidity around the child. The illuminance sensor 20 is provided on the handrail of the bed in order to measure the illuminance in the space where the child is present.

携帯端末22は保育者によって所持される携帯電話機である。起床通知システム100は、携帯端末22に対してメッセージを送信(通知)し、携帯端末22はメッセージを受信すると、音声または振動などによってメッセージの受信を保育者に知らせる。そして、保育者は起床通知システム100からのメッセージを、携帯端末22を利用して確認することが出来る。なお、他の実施例では、ipod touch(登録商標)やPDAなどのデータ端末が、携帯端末22として採用されてもよい。   The mobile terminal 22 is a mobile phone possessed by a childcare worker. The wake-up notification system 100 transmits (notifies) a message to the portable terminal 22, and when the portable terminal 22 receives the message, the childcare person is notified of reception of the message by voice or vibration. The childcare person can check the message from the wake-up notification system 100 using the portable terminal 22. In another embodiment, a data terminal such as ipod touch (registered trademark) or PDA may be employed as the mobile terminal 22.

起床通知システム100は、距離画像センサ12、マイク14、温度センサ16、湿度センサ18および照度センサ20を利用して、子どもの起床を予測する。そして、予測結果は携帯端末22に対して通知される。   The wake-up notification system 100 predicts the child's wake-up using the distance image sensor 12, the microphone 14, the temperature sensor 16, the humidity sensor 18, and the illuminance sensor 20. Then, the prediction result is notified to the mobile terminal 22.

なお、実施例の空間は子どもが寝ている部屋であるが、これに限らず保育園、幼稚園、学童保育所および病院などで子どもが寝ることが可能な空間であれば、起床通知システム100は利用可能である。   In addition, although the space of an Example is a room where the child is sleeping, not only this but the wake-up notification system 100 will be used if the child can sleep in a nursery school, a kindergarten, a school nursery school, a hospital, etc. Is possible.

また、距離画像センサ12、マイク14、温度センサ16、湿度センサ18および照度センサ20は、空間内に複数置かれてもよい。また、マイク14、温度センサ16、湿度センサ18および照度センサ20は、ベッドの手すり以外の場所に設けられてもよい。   A plurality of distance image sensors 12, microphones 14, temperature sensors 16, humidity sensors 18, and illuminance sensors 20 may be placed in the space. Further, the microphone 14, the temperature sensor 16, the humidity sensor 18, and the illuminance sensor 20 may be provided at a place other than the handrail of the bed.

図2を参照して、起床通知システム100の中央制御装置24は、起床通知装置とも呼ばれ、距離画像センサ12、マイク14、温度センサ16、湿度センサ18および照度センサ20などが接続される。また、中央制御装置24は、ネットワーク1000を介して、ロボット10および携帯端末22と無線通信を行う。中央制御装置24は、第1時間(たとえば、0.05秒)毎に、距離画像センサ12、マイク14、温度センサ16、湿度センサ18および照度センサ20が出力するセンサ情報を取得する。そして、中央制御装置24は、取得した各センサの情報から、子どもの動き、空間内で発生した音の音情報などを含む環境データ(図7参照)をテーブルに記憶する。   Referring to FIG. 2, central control device 24 of wake-up notification system 100 is also called a wake-up notification device, and is connected to distance image sensor 12, microphone 14, temperature sensor 16, humidity sensor 18, illuminance sensor 20, and the like. The central control device 24 performs wireless communication with the robot 10 and the portable terminal 22 via the network 1000. The central control device 24 acquires sensor information output by the distance image sensor 12, the microphone 14, the temperature sensor 16, the humidity sensor 18, and the illuminance sensor 20 every first time (for example, 0.05 seconds). Then, the central control device 24 stores environmental data (see FIG. 7) including child movement, sound information of sounds generated in the space, and the like from the acquired information of each sensor in a table.

図3(A)はロボット10の正面の外観を示し、図3(B)はロボット10の側面の外観を示す。図3(A),(B)を参照して、ロボット10は、子どもが抱えることが出来る程度の大きさであり、頭部、胴体、2本の腕および2本の足を有する人形のような形状をしている。ロボット10の頭部において、口の部分にはスピーカ30が設けられており、左目の部分にはカメラ32が設けられている。また、胴体と足との接続部分、つまり臀部は配置部34と呼ばれる。   FIG. 3A shows the appearance of the front of the robot 10, and FIG. 3B shows the appearance of the side of the robot 10. Referring to FIGS. 3A and 3B, the robot 10 is large enough to be held by a child and is like a doll having a head, a torso, two arms, and two legs. It has a nice shape. In the head of the robot 10, a speaker 30 is provided at the mouth portion, and a camera 32 is provided at the left eye portion. Further, the connecting portion between the body and the foot, that is, the buttocks is called an arrangement portion 34.

スピーカ30は発話コンテンツや、音楽コンテンツを出力するために利用される。カメラ32は、子どもを撮影するために利用される。配置部34は、ロボット10を安定してベッドの手すりなどに配置することが出来るように、略水平な状態にされている。なお、ロボット10をベッドの配置する際に、マジックテープ(登録商標)や、ゴムバンドおよび粘着テープなどが利用されてもよい。   The speaker 30 is used to output speech content and music content. The camera 32 is used for photographing a child. The placement unit 34 is in a substantially horizontal state so that the robot 10 can be stably placed on a handrail of the bed. When placing the robot 10 on the bed, Magic Tape (registered trademark), a rubber band, an adhesive tape, or the like may be used.

図4はロボット10の電気的な構成を示す図解図である。図4を参照して、ロボット10は、マイクロコンピュータ或いはCPUと呼ばれることがある、プロセッサ36などを含む。プロセッサ36には、カメラ32、メモリ38、D/A変換機40および無線LANモジュール42などが接続される。   FIG. 4 is an illustrative view showing an electrical configuration of the robot 10. Referring to FIG. 4, the robot 10 includes a processor 36, which may be called a microcomputer or a CPU. To the processor 36, a camera 32, a memory 38, a D / A converter 40, a wireless LAN module 42, and the like are connected.

プロセッサ36はロボット10の全体を制御する。また、プロセッサ36は、コンテンツの出力などを行うアクティブ状態と、アクティブ状態に比べて消費電力が抑えられるスタンバイ状態とを設定することが出来る。たとえば、プロセッサ36は、中央制御装置24からアクティブ信号を受信したときに、ロボット10をアクティブ状態とする。   The processor 36 controls the entire robot 10. Further, the processor 36 can set an active state in which content is output and a standby state in which power consumption is suppressed compared to the active state. For example, the processor 36 activates the robot 10 when receiving an active signal from the central controller 24.

メモリ38はROMおよびRAMを含む。ROMには、回路の動作を制御するための制御プログラムが予め記憶される。また、RAMはプロセッサ36のワークメモリやバッファメモリとして用いられる。また、ROMには、挨拶や音楽のコンテンツが記憶される。   The memory 38 includes a ROM and a RAM. The ROM stores in advance a control program for controlling the operation of the circuit. The RAM is used as a work memory or a buffer memory for the processor 36. The ROM stores greetings and music contents.

D/A変換器40にはスピーカ30が接続される。D/A変換器40はコンテンツを音声信号に変換して、アンプを介してスピーカ30に与える。したがって、コンテンツに基づく音声がスピーカ30から出力される。   A speaker 30 is connected to the D / A converter 40. The D / A converter 40 converts the content into an audio signal and supplies it to the speaker 30 via an amplifier. Accordingly, audio based on the content is output from the speaker 30.

カメラ32によって撮影された子どもの画像は、プロセッサ36に入力される。プロセッサ36はその画像に対して画像認識処理を加え、認識結果を利用して子どもが起きているかが判断される。   An image of a child photographed by the camera 32 is input to the processor 36. The processor 36 performs image recognition processing on the image, and determines whether a child is awake using the recognition result.

無線LANモジュール42は、ネットワーク1000を介して、プロセッサ36から与えられた送信データを中央制御装置24に送信したり、中央制御装置24から送信された受信データをプロセッサ36に与えたりする。たとえば、送信データはカメラ32によって撮影された子どもの画像であり、受信データはロボット10をアクティブ状態に遷移させるための信号である。   The wireless LAN module 42 transmits the transmission data given from the processor 36 to the central control device 24 via the network 1000, and gives the reception data sent from the central control device 24 to the processor 36. For example, the transmission data is an image of a child photographed by the camera 32, and the reception data is a signal for causing the robot 10 to transition to the active state.

図5は距離画像センサ12の電気的な構成を示すブロック図である。図5を参照して、距離画像センサ12は制御IC60などを含む。制御IC60には、A/D変換器62、カメラ66、深度センサ68、深度カメラ70およびI/O72などが接続される。   FIG. 5 is a block diagram showing an electrical configuration of the distance image sensor 12. Referring to FIG. 5, distance image sensor 12 includes a control IC 60 and the like. An A / D converter 62, a camera 66, a depth sensor 68, a depth camera 70, an I / O 72, and the like are connected to the control IC 60.

制御IC60は、キャッシュメモリなどを有し、距離画像センサ12の動作を制御する。たとえば、制御IC60は、中央制御装置24からの命令に従って動作し、検出した結果を中央制御装置24に送信する。   The control IC 60 includes a cache memory and the like, and controls the operation of the distance image sensor 12. For example, the control IC 60 operates according to a command from the central controller 24 and transmits the detected result to the central controller 24.

A/D変換機62にはマイク64が接続され、マイク64からの音声信号はA/D変換機62でディジタル音声信号に変換され、制御IC60に入力される。また、マイク64によって集音された音は、マイク14によって集音された音と共に、空間内の雑音などの音量を計測するために利用される。   A microphone 64 is connected to the A / D converter 62, and an audio signal from the microphone 64 is converted into a digital audio signal by the A / D converter 62 and input to the control IC 60. The sound collected by the microphone 64 is used to measure the volume of noise in the space together with the sound collected by the microphone 14.

カメラ66は、距離画像センサ12が設置された空間のRGB情報、つまりカラー画像を撮影するためのカメラである。また、カメラ66は、後述する深度カメラ70が撮影している空間と略同じ空間を撮影することが可能なように、距離画像センサ12に設けられている。   The camera 66 is a camera for photographing RGB information of the space in which the distance image sensor 12 is installed, that is, a color image. In addition, the camera 66 is provided in the distance image sensor 12 so as to be able to capture a space that is substantially the same as the space that is captured by the depth camera 70 described later.

深度センサ68は、たとえば赤外線プロジェクタであり、深度カメラ70は、たとえば赤外線カメラである。深度センサ68は、たとえば赤外線によるレーザ光を距離画像センサ12の正面に照射する。空間には照射されたレーザ光によって特殊なパターンが描画され、深度カメラ70は描画されたパターンを撮影する。そして、撮影された画像は制御IC60に入力され、制御IC60はその画像を解析することで、レーザ光が照射された空間の奥行(depth)情報を計測する。   The depth sensor 68 is, for example, an infrared projector, and the depth camera 70 is, for example, an infrared camera. The depth sensor 68 irradiates the front of the distance image sensor 12 with, for example, infrared laser light. A special pattern is drawn in the space by the irradiated laser light, and the depth camera 70 captures the drawn pattern. The captured image is input to the control IC 60, and the control IC 60 analyzes the image to measure the depth information of the space irradiated with the laser light.

I/O72は、入力/出力の制御が可能なディジタルポートであり、出力ポートからは音声信号、RGB情報および奥行情報が出力され、中央制御装置24に与えられる。一方、中央制御装置24からは制御信号が出力され、入力ポートに与えられる。   The I / O 72 is a digital port capable of input / output control, and an audio signal, RGB information, and depth information are output from the output port and provided to the central controller 24. On the other hand, a control signal is output from the central control device 24 and applied to the input port.

なお、距離画像センサ12は、RGB情報および奥行情報を出力することからRGB−Dセンサと呼ばれることもある。   The distance image sensor 12 outputs RGB information and depth information and is sometimes called an RGB-D sensor.

また、実施例の距離画像センサ12には、Microsoft(登録商標)社製のKinect(登録商標)センサと呼ばれる製品が採用されている。ただし、他の実施例では、ASUS(登録商標)社製のXtion、パナソニック(登録商標)社製の3次元距離画像センサであるD−IMager(登録商標)などが距離画像センサ12として採用されてもよい。   The distance image sensor 12 of the embodiment employs a product called Kinect (registered trademark) manufactured by Microsoft (registered trademark). However, in other embodiments, Xtion manufactured by ASUS (registered trademark), D-IMAGEr (registered trademark), which is a three-dimensional distance image sensor manufactured by Panasonic (registered trademark), and the like are employed as the distance image sensor 12. Also good.

図6は中央制御装置24の電気的な構成を示すブロック図である。図6を参照して、中央制御装置24は、マイクロコンピュータ或いはCPUと呼ばれることもあるプロセッサ80などを含む。プロセッサ80には、距離画像センサ12、温度センサ16、湿度センサ18、照度センサ20、メモリ82、A/D変換機84、出力装置86、入力装置88および通信LANボード90などが接続される。   FIG. 6 is a block diagram showing an electrical configuration of the central controller 24. Referring to FIG. 6, the central control device 24 includes a processor 80, sometimes called a microcomputer or CPU. The processor 80 is connected to the distance image sensor 12, the temperature sensor 16, the humidity sensor 18, the illuminance sensor 20, the memory 82, the A / D converter 84, the output device 86, the input device 88, the communication LAN board 90, and the like.

距離画像センサ12は、上述したように奥行情報などを出力する。この奥行情報には、空間に居る子ども(人)の形状および子どもまでの距離が含まれている。たとえば、子どもが天井に設けられた距離画像センサ12によってセンシングされると、ベッドの上で寝ている子どもの形状が奥行情報として得られる。   The distance image sensor 12 outputs depth information as described above. This depth information includes the shape of the child (person) in the space and the distance to the child. For example, when the child is sensed by the distance image sensor 12 provided on the ceiling, the shape of the child sleeping on the bed is obtained as the depth information.

また、プロセッサ80は、距離画像センサ12から奥行情報を取得して、ベッドの上(ワールド座標系)における子どもの位置情報(たとえば、重心など特徴点の位置座標(X,Y,Z))を計算することが出来る。そして、実施例では、子どもの位置情報の時系列変化から子どもが動く速度が算出され、さらにその速度から子どもの動きを表す加速度が算出される。   Further, the processor 80 obtains depth information from the distance image sensor 12 and obtains position information (for example, position coordinates (X, Y, Z) of feature points such as the center of gravity) of the child on the bed (world coordinate system). Can be calculated. In the embodiment, the moving speed of the child is calculated from the time series change of the child position information, and the acceleration representing the moving of the child is calculated from the speed.

なお、他の実施例では、距離画像センサ12ではなく、2次元または3次元のLRFを利用して、子どもの位置および姿勢が検出されてもよい。また、その他の実施例では、ベッドの下などに加速度センサを配置することによって、子どもの動きを検出するようにしてもよい。   In another embodiment, the position and posture of the child may be detected using a two-dimensional or three-dimensional LRF instead of the distance image sensor 12. In other embodiments, the movement of the child may be detected by arranging an acceleration sensor under the bed or the like.

温度センサ16、湿度センサ18および照度センサ20のそれぞれから取得されたセンサの情報は、プロセッサ80に入力される。そして、プロセッサ80は、入力された各センサ情報に基づいて環境データを作成し、テーブルに記憶する。   Sensor information acquired from each of the temperature sensor 16, the humidity sensor 18, and the illuminance sensor 20 is input to the processor 80. Then, the processor 80 creates environment data based on the input sensor information and stores it in a table.

出力装置86は、たとえばディスプレイなどであり、入力装置88は、たとえばマウスやキーボードである。たとえば、保育者は出力装置86および入力装置88を利用して、中央制御装置24の状態を確認したり、中央制御装置に情報を入力したりすることが出来る。   The output device 86 is, for example, a display, and the input device 88 is, for example, a mouse or a keyboard. For example, the childcare person can use the output device 86 and the input device 88 to check the state of the central control device 24 and input information to the central control device.

通信LANボード90は、たとえばDSPで構成され、プロセッサ80から与えられた送信データを無線通信装置92に与え、無線通信装置92は送信データを、ネットワーク1000を介してロボット10または携帯端末22に送信する。また、通信LANボード90は、無線通信装置92を介してデータを受信し、受信したデータをプロセッサ80に与える。   The communication LAN board 90 is configured by, for example, a DSP, and sends transmission data given from the processor 80 to the wireless communication device 92. The wireless communication device 92 sends the transmission data to the robot 10 or the portable terminal 22 via the network 1000. To do. Further, the communication LAN board 90 receives data via the wireless communication device 92 and gives the received data to the processor 80.

図7は環境データテーブルの構成の一例を示す図解図である。環境データとは、或る日時における子どもの動きと、空間内で発生した音と、空間内の温度と、湿度および照度と、子どもの行動に関する時間とを含むデータである。そして、環境データテーブルには、1行毎にこれらの情報を含む環境データが記憶される。そのため、図7に示す環境データテーブルは、日時、子どもの動き、マイク、温度、湿度、照度、睡眠時間および起きている時間の列を含む。   FIG. 7 is an illustrative view showing one example of a configuration of the environment data table. The environmental data is data including a child's movement at a certain date and time, sound generated in the space, temperature in the space, humidity and illuminance, and time related to the child's action. The environmental data table stores environmental data including these pieces of information for each row. Therefore, the environment data table shown in FIG. 7 includes columns of date and time, child movement, microphone, temperature, humidity, illuminance, sleep time, and waking time.

日時の列には、環境データが作成された日時が記憶される。また、記憶される日時の形式としては、「yy」が「年」を示し、「mm」が「月」を示し、「dd」が「日」を示し、「H」が「時」を示し、「M」が「分」を示し、「S」が「秒」を示す。   The date and time column stores the date and time when the environmental data was created. As the format of the date and time stored, “yy” indicates “year”, “mm” indicates “month”, “dd” indicates “day”, and “H” indicates “hour”. , “M” indicates “minute”, and “S” indicates “second”.

子どもの動きの列には、子どもの動きを示す値として加速度「a」が記憶される。たとえば、寝ている子どもの動きが多くなると子どもが起床する可能性が高くなるため、子どもがそのような状態であるかを判断するために利用される。   In the child movement column, acceleration “a” is stored as a value indicating the child movement. For example, when the movement of a sleeping child increases, the possibility that the child will wake up increases, and this is used to determine whether the child is in such a state.

マイクの列には、距離画像センサ12のマイク64またはマイク14から取得された音の音量の最大として「MB」が記憶される。たとえば、急に大きな音が発生すると子どもが起床する可能性が高くなるため、そのような状況であるかを判断するために利用される。   In the microphone column, “MB” is stored as the maximum volume of the sound acquired from the microphone 64 or the microphone 14 of the distance image sensor 12. For example, if a loud sound suddenly occurs, there is a high possibility that the child will get up, and this is used to determine whether such a situation exists.

温度の列には、温度センサ16によって取得された温度「t」が記憶される。たとえば、空間が極端に暑くなったり、寒くなったりすると子どもが起床する可能性が高くなるため、空間がそのような状況であるかを判断するために利用される。   In the temperature column, the temperature “t” acquired by the temperature sensor 16 is stored. For example, when the space becomes extremely hot or cold, there is a high possibility that the child will wake up, so it is used to determine whether the space is in such a situation.

湿度の列には、湿度センサ18によって取得された湿度「h」が記憶される。たとえば、空間の湿度が極端に高くなると子どもが起床する可能性が高くなるため、空間がそのような状況であるかを判断するために利用される。   In the humidity column, the humidity “h” acquired by the humidity sensor 18 is stored. For example, if the humidity of the space becomes extremely high, there is a high possibility that the child will wake up, and this is used to determine whether the space is in such a situation.

照度の列には、照度センサ20によって取得された照度「il」が記憶される。たとえば、空間が明るくなると子どもが起床する可能性が高くなるため、空間がそのような状況であるかを判断するために利用される。   In the illuminance column, the illuminance “il” acquired by the illuminance sensor 20 is stored. For example, if the space becomes brighter, the possibility that the child will wake up becomes higher, so it is used to determine whether the space is in such a situation.

睡眠時間の列には、子どもが就寝してからの時間として「ST」が記憶される。起き続けている時間の列には、子どもが起床してからの時間として「WT」が記憶される。時間「ST」は子どもが就寝したと判断されると対応する変数がカウントされ、時間「WT」は子どもが起床したと判断されると対応するカウンタがカウントされる。そして、時間「ST」および時間「WT」は、対応する変数に基づいて環境データテーブルに記憶される。また、実施例では、子どもの就寝および起床は、子どもの位置情報の変化に基づいて判断され、就寝したまたは起床したときにそれぞれ対応する変数が初期化される。なお、他の実施例では、子どもの就寝または起床は保育者からの通知に基づいて判断されてもよい。   In the sleep time column, “ST” is stored as the time since the child went to bed. “WT” is stored as the time since the child got up in the column of the time of staying up. When the time “ST” is determined that the child has gone to bed, the corresponding variable is counted, and when the time “WT” is determined that the child has woken up, the corresponding counter is counted. The time “ST” and the time “WT” are stored in the environment data table based on the corresponding variables. Further, in the embodiment, the sleep and wake-up of the child are determined based on the change in the position information of the child, and the corresponding variables are initialized when the child goes to sleep or wakes up. In other embodiments, the child's sleep or wake-up may be determined based on a notification from the childcare worker.

たとえば、睡眠時間「ST」が平均睡眠時間よりも長くなると子どもが起床する可能性が高くなる。また、起きている時間「WT」が長くなると子どもが起床する可能性は低くなる。そのため、睡眠時間「ST」および起きている時間「WT」は、子どもがこれらの状態であるかを判断するために利用される。なお、実施例では子どもの睡眠時間の平均がメモリ82に記憶される。   For example, if the sleep time “ST” is longer than the average sleep time, the child is likely to get up. In addition, the longer the wake-up time “WT”, the lower the possibility that the child will get up. Therefore, the sleep time “ST” and the waking time “WT” are used to determine whether the child is in these states. In the embodiment, the average sleep time of the child is stored in the memory 82.

中央制御装置24は、環境データテーブルに対して、第1時間毎にこのような環境データを記憶する。そして、中央制御装置24は、第2時間毎に子どもの起床の予測を行う。   The central controller 24 stores such environmental data every first time in the environmental data table. Then, the central controller 24 predicts the child's getting up every second time.

なお、環境データに含まれる、子どもの動き、音量の最大、温度、湿度、照度、睡眠時間および起きている時間の情報は子どもの起床を予測するための情報であり、まとめて起床因子と呼ばれることがある。   In addition, the information on the child's movement, maximum volume, temperature, humidity, illuminance, sleep time, and waking time included in the environmental data is information for predicting the child's wake-up and is collectively called the wake-up factor. Sometimes.

実施例では、子ども起床する所定時間前から第2時間分の起床因子を教師データとし、SVM(Support vector machine)などの機械学習手法によって教師データを学習する。その結果、所定時間内の起床を予測する判別モデルが作成される。この判別モデルに対して第2時間分の未知の起床因子を入力すると、所定時間内に子どもが起床する確率が予測結果として出力される。そして、その確率が閾値よりも大きいとき、所定時間内に子どもが起床すると判断される。   In the embodiment, teacher data is learned by a machine learning method such as SVM (Support Vector Machine) using the wake-up factor for the second time as teacher data from a predetermined time before the child wakes up. As a result, a discrimination model for predicting wakeup within a predetermined time is created. When an unknown wake-up factor for the second time is input to this discrimination model, the probability that the child will wake up within a predetermined time is output as a prediction result. When the probability is greater than the threshold value, it is determined that the child wakes up within a predetermined time.

たとえば、起床を予測する判別モデルに対して、第2時間分の起床因子が未知データとして入力されたときに確率が85%と出力された場合、閾値が80%であれば子どもが所定時間内に起床すると判断される。また、閾値が90%であれば子どもが所定時間内に起床することはないと判断される。   For example, when a wake-up factor for the second time is input as unknown data for a discrimination model that predicts wake-up, the probability is output as 85%. It is judged to get up. If the threshold is 90%, it is determined that the child will not get up within a predetermined time.

図8を参照して、たとえば予測結果として出力された確率が閾値より大きい場合、中央制御装置24は、保育者が所持する携帯端末22に対して、所定時間内に子どもが起床することを伝えるメッセージを送信する。保育者は、メッセージを確認することで子どもが起床するタイミングを把握することが出来るため、子どもが起床するまでの時間を利用して保育行動の準備をすることが出来る。したがって、保育者の負担が軽減される。   Referring to FIG. 8, for example, when the probability output as a prediction result is larger than a threshold value, central controller 24 informs portable terminal 22 possessed by the childcare person that the child will wake up within a predetermined time. Send a message. The childcare person can grasp the timing when the child wakes up by checking the message. Therefore, the childcare person can use the time until the child wakes up to prepare for childcare. Therefore, the burden on the childcare worker is reduced.

また、実施例では、子どもの起床が予測されると、ロボット10はアクティブ状態に遷移する。ロボット10がアクティブ状態に遷移すると、ロボット10のカメラ32によって子どもが撮影され、撮影した画像に対して顔認識の処理が加えられる。ロボット10は、認識された子どもの目が開いているか、つまり起床したかを一定周期毎に判断する。そして、ロボット10は、子どもが起床したことを認識すると、たとえば、「おはよう」と挨拶したり、音楽を流したりする。これにより、子どもが起床してから行う保育行動が補助されるため、保育者の負担が軽減される。特に、ロボット10は子どもの起床を認識するため、子どもに対するコンテンツの出力が適切なタイミングで行われる。   Further, in the embodiment, when the child is expected to wake up, the robot 10 transitions to the active state. When the robot 10 transitions to the active state, a child is photographed by the camera 32 of the robot 10, and face recognition processing is added to the photographed image. The robot 10 determines at regular intervals whether the recognized child's eyes are open, that is, whether he / she has woken up. When the robot 10 recognizes that the child has woken up, for example, it greets "Good morning" or plays music. Thereby, since the childcare action performed after the child wakes up is assisted, the burden on the childcare worker is reduced. In particular, since the robot 10 recognizes the child's wake-up, the content is output to the child at an appropriate timing.

なお、実施例では、起床の予測は、環境データを取得するために必要な第1時間よりも長い第2時間毎に認識される。つまり、子どもの起床を予測するために必要な環境データ(起床因子)が取得されてから起床が予測される。これにより、子どもの起床を正確に予測することが出来る。   In the embodiment, the wake-up prediction is recognized every second time longer than the first time necessary for acquiring the environmental data. That is, wake-up is predicted after environmental data (wake-up factor) necessary for predicting child wake-up is acquired. This makes it possible to accurately predict the child's getting up.

上述では実施例の特徴を概説した。以下では、図9に示す中央制御装置24のメモリ82のメモリマップ、図10に示すロボット10のメモリ38のメモリマップ、図11−図13に示すフロー図を用いて、実施例について詳細に説明する。   The above has outlined features of the embodiment. Hereinafter, the embodiment will be described in detail with reference to the memory map of the memory 82 of the central controller 24 shown in FIG. 9, the memory map of the memory 38 of the robot 10 shown in FIG. 10, and the flowcharts shown in FIGS. To do.

図9は図6に示す中央制御装置24のメモリ82のメモリマップの一例を示す図解図である。図9に示すように、メモリ82はプログラム領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、中央制御装置24を動作させるためのプログラムとして、各センサから情報を取得し、環境データテーブルに環境データを記憶するための取得プログラム310および起床を予測し、通知するための起床通知プログラム312などが記憶される。なお、図示は省略するが、中央制御装置24を動作させるためのプログラムには、通知するメッセージを作成するためのプログラムなども含まれる。   FIG. 9 is an illustrative view showing one example of a memory map of the memory 82 of the central controller 24 shown in FIG. As shown in FIG. 9, the memory 82 includes a program area 302 and a data storage area 304. In the program storage area 302, information is acquired from each sensor as a program for operating the central controller 24, and an acquisition program 310 for storing environmental data in the environmental data table and a wake-up are predicted and notified. The wake-up notification program 312 is stored. Although illustration is omitted, the program for operating the central controller 24 includes a program for creating a message to be notified.

データ記憶領域304には、環境データテーブル330および平均睡眠時間データ332に記憶されると共に、睡眠フラグ334などが設けられる。環境データテーブル330は、たとえば図7に示す構成のテーブルであり、環境データが記憶される。平均睡眠時間データ332は、環境データテーブル330に記憶されている睡眠時間を利用して算出される値を含むデータである。   The data storage area 304 is stored in the environmental data table 330 and the average sleep time data 332, and is provided with a sleep flag 334 and the like. The environmental data table 330 is, for example, a table having the configuration shown in FIG. 7, and stores environmental data. The average sleep time data 332 is data including a value calculated using the sleep time stored in the environment data table 330.

睡眠フラグ334は、睡眠時間「ST」および起きている時間「WT」を計測するときに利用されるフラグである。たとえば、睡眠フラグ334は、1ビットのレジスタで構成される。睡眠フラグ334がオン(成立)されると、レジスタにはデータ値「1」が設定される。一方、睡眠フラグ334がオフ(不成立)されると、レジスタにはデータ値「0」が設定される。   The sleep flag 334 is a flag used when measuring the sleep time “ST” and the waking time “WT”. For example, the sleep flag 334 is composed of a 1-bit register. When the sleep flag 334 is turned on (established), a data value “1” is set in the register. On the other hand, when the sleep flag 334 is turned off (not established), a data value “0” is set in the register.

睡眠フラグ334は、たとえば子どもが就寝したと判断されるとオンとなり、子どもが起床するとオフとなる。睡眠フラグ334がオンにされると、つまり子どもが就寝すると、睡眠時間「ST」をカウントするための変数が初期化され、睡眠時間「ST」の計測が開始される。また、起きている時間「WT」と対応する変数のカウントが停止される。一方、睡眠フラグ334がオフにされると、つまり子どもが起床すると、起きている時間「WT」をカウントするための変数が初期化され、子どもが起きている時間「WT」の計測が開始される。また、睡眠時間「ST」と対応する変数のカウントが停止される。   For example, the sleep flag 334 is turned on when it is determined that the child has gone to bed, and turned off when the child wakes up. When the sleep flag 334 is turned on, that is, when the child goes to bed, a variable for counting the sleep time “ST” is initialized, and measurement of the sleep time “ST” is started. Also, the counting of the variable corresponding to the waking time “WT” is stopped. On the other hand, when the sleep flag 334 is turned off, that is, when the child wakes up, a variable for counting the wake-up time “WT” is initialized, and measurement of the wake-up time “WT” is started. The Also, the count of the variable corresponding to the sleep time “ST” is stopped.

なお、図示は省略するが、データ記憶領域304には、様々な計算の結果を一時的に格納するバッファや、中央制御装置24の動作に必要な他のカウンタやフラグなども設けられる。   Although not shown, the data storage area 304 is also provided with a buffer for temporarily storing the results of various calculations, and other counters and flags necessary for the operation of the central controller 24.

図10は図4に示すロボット10のメモリ38のメモリマップの一例を示す図解図である。図10に示すように、メモリ38はプログラム領域402およびデータ記憶領域404を含む。プログラム記憶領域404には、ロボット10を動作させるためのプログラムとして、アクティブ状態に遷移した後にコンテンツを出力するための起床対応プログラム410などが記憶される。なお、図示は省略するが、ロボット10を動作させるためのプログラムには、顔認識を行うためのプログラムなども含まれる。   FIG. 10 is an illustrative view showing one example of a memory map of the memory 38 of the robot 10 shown in FIG. As shown in FIG. 10, the memory 38 includes a program area 402 and a data storage area 404. The program storage area 404 stores, for example, a wake-up correspondence program 410 for outputting content after transitioning to the active state as a program for operating the robot 10. Although illustration is omitted, the program for operating the robot 10 includes a program for performing face recognition and the like.

データ記憶領域404には、様々な計算の結果を一時的に格納するバッファや、ロボット10の動作に必要な他のカウンタやフラグなども設けられる。   The data storage area 404 is also provided with a buffer for temporarily storing the results of various calculations, and other counters and flags necessary for the operation of the robot 10.

中央制御装置24のプロセッサ80は、Linux(登録商標)ベースのOSや、その他のOSの制御下で、図11に示す取得処理および図12に示す起床通知処理などを含む、複数のタスクを処理する。   The processor 80 of the central controller 24 processes a plurality of tasks including the acquisition process shown in FIG. 11 and the wake-up notification process shown in FIG. 12 under the control of the Linux (registered trademark) -based OS and other OSs. To do.

図11は取得処理のフロー図である。中央制御装置24の電源がオンにされ、取得処理の実行命令が出されると、取得処理が実行される。なお、取得処理の実行命令は、第1時間毎に出される。   FIG. 11 is a flowchart of the acquisition process. When the central controller 24 is turned on and an execution command for the acquisition process is issued, the acquisition process is executed. An execution instruction for the acquisition process is issued every first time.

取得処理が実行されると、プロセッサ80はステップS1で、現在時刻を取得する。たとえば、プロセッサ80が有するRTCから現在時刻を取得する。続いて、ステップS3でプロセッサ80は、距離画像センサ12の情報を取得する。つまり、プロセッサ80は、距離画像センサ12が出力する奥行情報および音声信号を取得する。   When the acquisition process is executed, the processor 80 acquires the current time in step S1. For example, the current time is acquired from the RTC that the processor 80 has. Subsequently, in step S3, the processor 80 acquires information of the distance image sensor 12. That is, the processor 80 acquires the depth information and the audio signal output from the distance image sensor 12.

続いて、プロセッサ80は、ステップS5でマイク14から音声信号を取得し、ステップS7で温度センサ16から温度を取得し、ステップS9で湿度センサ18から湿度を取得し、ステップS11で照度センサから照度を取得する。つまり、子どもの周囲の音の音量、温度、湿度および照度が取得される。   Subsequently, the processor 80 acquires an audio signal from the microphone 14 in step S5, acquires a temperature from the temperature sensor 16 in step S7, acquires humidity from the humidity sensor 18 in step S9, and acquires illuminance from the illuminance sensor in step S11. To get. That is, the volume, temperature, humidity, and illuminance of the sound around the child are acquired.

続いて、ステップS13でプロセッサ80は、各時間を算出する。つまり、睡眠時間「ST」および起きている時間「WT」のそれぞれが、対応する変数に基づいて算出される。なお、ステップS3−13の処理を実行するプロセッサ80は取得手段として機能する。   Subsequently, in step S13, the processor 80 calculates each time. That is, each of the sleeping time “ST” and the waking time “WT” is calculated based on the corresponding variable. The processor 80 that executes the process of step S3-13 functions as an acquisition unit.

続いて、ステップS15でプロセッサ80は、環境データを作成する。つまり、奥行情報に基づいて子どもの動き(加速度)が計算され、マイク14および距離画像センサ12のマイク64から最大の音量を選択する。そして、これらの値に、温度、湿度および照度と、ステップS13で算出された各時間とが加えられ、1つの環境データとされる。   Subsequently, in step S15, the processor 80 creates environment data. That is, the child's movement (acceleration) is calculated based on the depth information, and the maximum volume is selected from the microphone 14 and the microphone 64 of the distance image sensor 12. Then, the temperature, humidity, and illuminance, and each time calculated in step S13 are added to these values to form one environmental data.

続いて、ステップS17でプロセッサ80は、現在時刻および環境データを記憶する。つまり、ステップS1で取得された現在時刻の情報に環境データが関連付けられ、環境データテーブル330に記憶される。そして、ステップS17の処理が終了すると、プロセッサ80は取得処理を終了する。   Subsequently, in step S17, the processor 80 stores the current time and environment data. That is, the environmental data is associated with the current time information acquired in step S <b> 1 and stored in the environmental data table 330. Then, when the process of step S17 ends, the processor 80 ends the acquisition process.

図12は起床通知処理のフロー図である。中央制御装置24の電源がオンにされ、通知処理の実行命令が出されると、起床通知処理が実行される。なお、起床通知処理の実行命令は、第2時間毎に出される。   FIG. 12 is a flowchart of the wake-up notification process. When the central controller 24 is turned on and a notification processing execution command is issued, the wake-up notification processing is executed. Note that the execution instruction for the wake-up notification process is issued every second time.

起床通知処理が実行されると、ステップS31でプロセッサ80は、ベッドに子どもが居るかを判断する。つまり、距離画像センサ12によって子どもの位置が検出されているかが判断される。ステップS31で“NO”であれば、つまりベッドに子どもが居なければ、プロセッサ80は起床通知処理を終了する。   When the wake-up notification process is executed, in step S31, the processor 80 determines whether there is a child in the bed. That is, it is determined whether the position of the child is detected by the distance image sensor 12. If “NO” in the step S31, that is, if there is no child in the bed, the processor 80 ends the wake-up notification process.

ステップS31で“YES”であれば、つまりベッドに子どもが居れば、ステップS33でプロセッサ80は、現在時刻から第2時間分の環境データを取得する。つまり、起床因子である、子どもの動き、音量の最大、温度、湿度、照度、睡眠時間および起きている時間が環境データテーブル330から読み出される。続いて、ステップS35でプロセッサ80は、起床予測処理を実行する。つまり、第2時間分の起床因子が、起床を予測する判別モデルに入力される。なお、ステップS35の処理を実行するプロセッサ80は予測手段として機能する。   If “YES” in the step S31, that is, if there is a child in the bed, the processor 80 acquires environmental data for a second time from the current time in a step S33. That is, the child's movement, the maximum volume, the temperature, the humidity, the illuminance, the sleeping time, and the waking time, which are wake-up factors, are read from the environment data table 330. Subsequently, in step S35, the processor 80 executes a wake-up prediction process. That is, the wake-up factor for the second time is input to the discrimination model for predicting wake-up. In addition, the processor 80 which performs the process of step S35 functions as a prediction means.

続いて、ステップS37でプロセッサ80は、予測結果の確率が閾値よりも大きいか否かを判断する。つまり、プロセッサ80は、所定時間後に子どもが起床する確率が、閾値よりも大きいかを判断する。ステップS37で“NO”であれば、つまり予測結果の確率が閾値よりも小さければ、プロセッサ80は起床通知処理を終了する。   Subsequently, in step S37, the processor 80 determines whether or not the probability of the prediction result is greater than a threshold value. That is, the processor 80 determines whether the probability that the child will wake up after a predetermined time is greater than the threshold value. If “NO” in the step S37, that is, if the probability of the prediction result is smaller than the threshold value, the processor 80 ends the wake-up notification process.

一方、ステップS37で“YES”であれば、つまり予測結果の確率が閾値よりも大きければ、ステップS39でプロセッサ80は、所定時間内に起床することを通知する。たとえば、図8に示すように、子どもが所定時間内に起床することを伝えるメッセージが、中央制御装置24から携帯端末22に送信される。なお、ステップS39の処理を実行するプロセッサ80は通知手段として機能する。   On the other hand, if “YES” in the step S37, that is, if the probability of the prediction result is larger than the threshold value, the processor 80 notifies that the user gets up within a predetermined time in a step S39. For example, as shown in FIG. 8, a message indicating that the child will get up within a predetermined time is transmitted from the central control device 24 to the portable terminal 22. The processor 80 that executes the process of step S39 functions as a notification unit.

続いて、ステップS41でプロセッサ80は、ロボット10にアクティブ信号を送信する。つまり、ロボット10をアクティブ状態に遷移させるために、アクティブ信号がロボット10に送信される。そして、ステップS41の処理が終了すると、プロセッサ80は起床通知処理を終了する。   Subsequently, the processor 80 transmits an active signal to the robot 10 in step S41. That is, an active signal is transmitted to the robot 10 in order to change the robot 10 to the active state. Then, when the process of step S41 ends, the processor 80 ends the wake-up notification process.

ロボット10のプロセッサ36は、Linux(登録商標)ベースのOSや、その他のOSの制御下で、図13に示す起床対応処理などを含む、複数のタスクを処理する。   The processor 36 of the robot 10 processes a plurality of tasks including a wake-up handling process shown in FIG. 13 under the control of a Linux (registered trademark) -based OS and other OSs.

図13は起床対応処理のフロー図である。ロボット10がアクティブ信号を受信してアクティブ状態に遷移すると、起床対応処理が実行される。   FIG. 13 is a flowchart of the wake-up response process. When the robot 10 receives the active signal and transitions to the active state, the wake-up handling process is executed.

起床対応処理が実行されると、ステップS61でプロセッサ36は、アクティブタイマを実行する。つまり、ロボット10がアクティブ状態にされてからの時間を計測するために、アクティブタイマが実行される。また、アクティブタイマは第2時間よりも長い第3時間が経過すると満了する。   When the wake-up response process is executed, the processor 36 executes an active timer in step S61. In other words, the active timer is executed to measure the time since the robot 10 was activated. The active timer expires when a third time longer than the second time elapses.

続いて、ステップS63でプロセッサ36は、顔認識処理を実行する。つまり、カメラ32によって撮影し、撮影された画像に対して画像認識処理を加える。続いて、ステップS65でプロセッサ36は、起床したか否かを判断する。つまり、顔認識処理の結果、目を開いている子どもの顔が認識されたかが判断される。ステップS65で“YES”であえれば、つまり目を開いている子どもの顔が認識されると、ステップS67でプロセッサ36は、コンテンツを出力する。たとえば、ロボット10は、「おはよう」などの挨拶を発話する。そして、ステップS67の処理が終了すると、プロセッサ36はステップS71の処理に進む。なお、ステップS63,S65の処理を実行するプロセッサ36は判断手段として機能する。   Subsequently, in step S63, the processor 36 executes face recognition processing. That is, the image is captured by the camera 32 and image recognition processing is added to the captured image. Subsequently, in step S65, the processor 36 determines whether or not the user has woken up. That is, as a result of the face recognition process, it is determined whether the face of a child with open eyes has been recognized. If “YES” in step S65, that is, if the face of a child with open eyes is recognized, the processor 36 outputs the content in step S67. For example, the robot 10 utters a greeting such as “Good morning”. Then, when the process of step S67 ends, the processor 36 proceeds to the process of step S71. The processor 36 that executes the processes of steps S63 and S65 functions as a determination unit.

また、ステップS65で“NO”であれば、つまり目を開いている子どもの顔が認識されていなければ、ステップS69でプロセッサ36は、アクティブタイマが満了したか否かを判断する。つまり、ロボット10がアクティブ状態になってから第3所定時間が経過したかが判断される。ステップS69で“NO”であれば、つまりロボット10がアクティブ状態になってから第3所定時間が経過していなければ、プロセッサ36はステップS63の処理に戻る。   If “NO” in the step S65, that is, if the face of a child with open eyes is not recognized, the processor 36 determines whether or not the active timer has expired in a step S69. That is, it is determined whether the third predetermined time has elapsed since the robot 10 became active. If “NO” in the step S69, that is, if the third predetermined time has not elapsed since the robot 10 became active, the processor 36 returns to the process of the step S63.

一方、ステップS69で“YES”であれば、つまりロボット10がアクティブ状態になってから第3所定時間が経過すると、ステップS71でプロセッサ36は、スタンバイ状態に遷移する。つまり、予測とは異なり子どもが起床しない可能性があるため、ロボット10はスタンバイ状態に遷移する。そして、ステップS71の処理が終了すると、プロセッサ36は起床対応処理を終了する。   On the other hand, if “YES” in the step S69, that is, if the third predetermined time elapses after the robot 10 enters the active state, the processor 36 shifts to the standby state in a step S71. That is, unlike the prediction, there is a possibility that the child does not get up, so the robot 10 transitions to the standby state. Then, when the process of step S71 ends, the processor 36 ends the wake-up handling process.

なお、他の実施例では、ロボット10はモータや車輪を備え、子どもが居る空間を自由に移動できてもよい。この場合、起床通知処理が実行されると、プロセッサ80はロボット10に対して、所定時間以内に子どもの所へ向かうことが出来るように、ロボット10に移動命令を出す。このとき、ロボット10がスタンバイ状態であればアクティブ状態に遷移した後に、所定時間内に子どもの所へ向かうことが出来る場所に移動し、ロボット10は再度スタンバイ状態となる。   In another embodiment, the robot 10 may include a motor and wheels, and may freely move in a space where a child is present. In this case, when the wake-up notification process is executed, the processor 80 issues a movement command to the robot 10 so that the robot 10 can head for the child within a predetermined time. At this time, if the robot 10 is in the standby state, after the transition to the active state, the robot 10 moves to a place where it can go to the child within a predetermined time, and the robot 10 enters the standby state again.

また、その他の実施例では、ロボット10はマイクをさらに備え、起床した子どもとコミュニケーション行動を行うことが出来てもよい。この場合、コミュニケーションによって子どもの注意をひきつけることが出来る時間が長くなるため、保育者の負担をより軽減することが出来る。   In another embodiment, the robot 10 may further include a microphone, and may be able to communicate with a child who gets up. In this case, since the time during which the child's attention can be attracted by communication becomes longer, the burden on the childcare worker can be further reduced.

また、さらにその他の実施例では、子どもが起床したかの判断を中央制御装置24が行い、その判断結果がロボット10に送信されるようにしてもよい。この場合、ロボット10の起床対応処理では、ステップS63の処理が省略され、ステップS65では中央制御装置24から起床したことを知らせる信号を受信したかを判断する。   In still another embodiment, the central control device 24 may determine whether the child has woken up, and the determination result may be transmitted to the robot 10. In this case, in the wake-up response process of the robot 10, the process of step S63 is omitted. In step S65, it is determined whether a signal notifying that the wake-up has been received from the central controller 24 is determined.

また、実施例では、機械学習手法としてSVMを採用したが、他の実施例では、重回帰分析、ニューラルネットワークまたはC4.5などのアルゴリズムが採用されてもよい。たとえば、重回帰分析が採用された場合、起床因子の各値を説明変数として係数が計算される。そして、起床の予測結果の確率をZとし、睡眠時間の変数をXとした場合、重回帰分析によって数1の数式が得られる。   In the embodiment, SVM is used as a machine learning method. However, in other embodiments, multiple regression analysis, a neural network, or an algorithm such as C4.5 may be used. For example, when multiple regression analysis is employed, coefficients are calculated using each value of the wake-up factor as an explanatory variable. When the probability of the wake-up prediction result is Z and the sleep time variable is X, the mathematical formula 1 is obtained by multiple regression analysis.

[数1]
Z=intercept+sX
このとき、子どもの睡眠時間が12時間になれば子どもが起床するとのデータが得られていれば、「intercept=1/13」および「s=1/13」とすれば、子どもの睡眠時間が12時間となったときに、起床の予測の確率Zが100%となる。
[Equation 1]
Z = intercept + sX
At this time, if data indicating that the child wakes up is obtained when the child's sleep time is 12 hours, if “intercept = 1/13” and “s = 1/13”, the child's sleep time When it becomes 12 hours, the probability Z of the wake-up prediction is 100%.

また、他の実施例では、機械学習は利用せずに、単純な閾値処理としてもよい。急に大きな音が発生すると子どもが起床する可能性が高い。そのため、音の最大が第1所定値も高い場合は、所定時間内に子どもが起床すると予測するようにしてもよい。つまり、空間内で発生した音の最大値を利用して、子どもの起床を予測することが出来る。   In another embodiment, simple threshold processing may be used without using machine learning. If there is a sudden loud noise, the child is likely to get up. Therefore, when the maximum sound is also higher than the first predetermined value, it may be predicted that the child will wake up within a predetermined time. In other words, the child's wake-up can be predicted using the maximum value of the sound generated in the space.

さらに、睡眠時間「ST」が平均睡眠時間よりも長くなると子どもが起床する可能性が高い。そのため、睡眠時間「ST」が、平均睡眠時間の所定倍(第2所定値)より大きい場は、所定時間内に子どもが起床すると予測するようにしてもよい。つまり、子どもの睡眠時間を利用して、子どもの起床を予測することが出来る。   Furthermore, if the sleep time “ST” is longer than the average sleep time, the child is likely to get up. Therefore, when the sleep time “ST” is larger than a predetermined multiple (second predetermined value) of the average sleep time, the child may be predicted to wake up within the predetermined time. In other words, the child's sleep time can be used to predict the child's wake-up.

また、その他の実施例では、距離画像センサ12の奥行情報に基づいて、子どもの寝返りを検出してもよい。そして、環境データには、寝返りの回数が含まれるようにしてもよい。さらに、環境データには、空間の雑音の平均、寝る前の子どもの運動量(運動時間)が含まれてもよい。そして、子どもの起床を予測するときに、寝返りの回数、空間の雑音の平均および寝る前の子どもの運動量がさらに利用されてもよい。   In other embodiments, the child's turning may be detected based on the depth information of the distance image sensor 12. Then, the environment data may include the number of times of turning over. Furthermore, the environmental data may include the average noise in the space and the amount of exercise (exercise time) of the child before going to bed. Then, when predicting the child's wake-up, the number of times of turning over, the average noise in the space, and the amount of exercise of the child before going to sleep may be further used.

また、起床を予測するための閾値は、保育者によって任意に設定されてもよいし、中央制御装置24によって自動的に設定されてもよい。   Moreover, the threshold value for predicting wake-up may be arbitrarily set by the childcare worker, or may be automatically set by the central control device 24.

また、携帯端末22に送信されるメッセージは、Eメールによって送信されてよいし、専用のソフトウェアを利用して送信されてもよい。また、メッセージを送信する先は、携帯端末22だけに限らずPCなどの端末などに送信されてもよい。また、文字によるメッセージに代えて、起床が予測された時間から第2時間前までの状況を伝える映像や音声が、携帯端末22に送信されてもよい。   The message transmitted to the portable terminal 22 may be transmitted by e-mail or may be transmitted using dedicated software. Further, the destination of the message transmission is not limited to the portable terminal 22 and may be transmitted to a terminal such as a PC. Further, instead of the text message, video or audio that conveys the situation from the time when waking up is predicted to the second time before may be transmitted to the mobile terminal 22.

また、さらにその他の実施例では、ロボット10は、アクティブ状態に遷移した後、子どもの起床を判断せずにコンテンツを出力してもよい。   In still another embodiment, the robot 10 may output the content without determining the child's getting up after the transition to the active state.

また、他の実施例では、ロボット10は常にアクティブ状態にされていてもよい。この場合、中央制御装置80は、ステップS41の処理では、子どもの起床が予測されたことをロボット10に通知する。   In another embodiment, the robot 10 may always be in an active state. In this case, the central controller 80 notifies the robot 10 that the child's getting up is predicted in the process of step S41.

また、上述の実施例では、閾値に対して「より大きい」の言葉を用いたが「閾値より大きい」とは「閾値以上」の意味も含まれる。また、「閾値よりも小さい」とは「閾値以下」および「閾値未満」の意味も含まれる。   In the above-described embodiment, the word “greater than” is used for the threshold value, but “greater than the threshold value” includes the meaning of “greater than or equal to the threshold value”. Further, “smaller than a threshold” includes the meanings of “below the threshold” and “below the threshold”.

また、本実施例で説明した複数のプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して本実施例と同等の構成のシステムに配信されてもよい。また、CD, DVD, BD (Blu-ray(登録商標) Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体にこれらのプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、上記複数のプログラムが、本実施例と同等の構成のシステムに適用された場合、本実施例と同等の効果が得られる。   In addition, the plurality of programs described in the present embodiment may be stored in the HDD of a data distribution server and distributed to a system having the same configuration as that of the present embodiment via a network. In addition, storage programs such as CDs, DVDs, and BDs (Blu-ray (registered trademark) Disc) are sold or distributed with these programs stored in storage media such as USB memory and memory card. May be. When the plurality of programs downloaded through the server and storage medium described above are applied to a system having the same configuration as that of this embodiment, the same effect as that of this embodiment can be obtained.

そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。   The specific numerical values given in this specification are merely examples, and can be appropriately changed according to a change in product specifications.

10 …ロボット
12 …距離画像センサ
14 …マイク
16 …温度センサ
18 …湿度センサ
20 …照度センサ
22 …携帯端末
24 …中央制御装置
30 …スピーカ
32 …カメラ
36 …プロセッサ
38 …メモリ
64 …マイク
80 …プロセッサ
82 …メモリ
100 …起床通知システム
1000 …ネットワーク
DESCRIPTION OF SYMBOLS 10 ... Robot 12 ... Distance image sensor 14 ... Microphone 16 ... Temperature sensor 18 ... Humidity sensor 20 ... Illuminance sensor 22 ... Portable terminal 24 ... Central control device 30 ... Speaker 32 ... Camera 36 ... Processor 38 ... Memory 64 ... Microphone 80 ... Processor 82 ... Memory 100 ... Wake-up notification system 1000 ... Network

Claims (8)

起床因子を取得する取得手段、
前記起床因子によって子どもが起床するかを予測する予測手段、および
前記子どもが起床すると予測されたとき、予測結果を通知する通知手段を備える、起床通知システム。
An acquisition means for acquiring a wake-up factor;
A wake-up notification system comprising: prediction means for predicting whether a child will wake up by the wake-up factor; and notification means for notifying a prediction result when the child is predicted to wake up.
前記起床因子は、前記子どもが居る空間で発生した音の音量の最大値を含み、
前記予測手段は、前記最大値を利用して、前記子どもが起床するかを予測する、請求項1記載の起床通知システム。
The wake-up factor includes a maximum value of a sound volume generated in the space where the child is present,
The wake-up notification system according to claim 1, wherein the prediction means predicts whether the child wakes up using the maximum value.
前記起床因子は、前記子どもの睡眠時間を含み、
前記予測手段は、前記睡眠時間を利用して、前記子どもが起床するかを予測する、請求項1または2記載の起床通知システム。
The wake-up factor includes sleep time of the child,
The wake-up notification system according to claim 1, wherein the prediction unit predicts whether the child wakes up using the sleep time.
コンテンツを出力するロボットをさらに備え、
前記子どもが起床すると予測されたとき、前記ロボットがコンテンツを出力する、請求項1ないし3のいずれかに記載の起床通知システム。
A robot that outputs content;
The wakeup notification system according to any one of claims 1 to 3, wherein the robot outputs content when the child is predicted to wake up.
前記子どもが起床したかを判断する判断手段をさらに備え、
前記子どもが起床したと判断されたとき、前記ロボットがコンテンツを出力する、請求項4記載の起床通知システム。
A judgment means for judging whether the child has woken up;
The wake-up notification system according to claim 4, wherein when it is determined that the child has woken up, the robot outputs content.
起床通知システムのプロセッサを、
起床因子を取得する取得手段、
前記起床因子によって子どもが起床するかを予測する予測手段、および
前記子どもが起床すると予測されたとき、予測結果を通知する通知手段として機能させる、起床予測プログラム。
Wake up notification system processor,
An acquisition means for acquiring a wake-up factor;
A prediction unit that predicts whether a child will wake up by the wake-up factor, and a wake-up prediction program that functions as a notification unit that notifies a prediction result when the child is predicted to wake up.
起床通知システムのプロセッサが、
起床因子を取得する取得ステップ、
前記起床因子によって子どもが起床するかを予測する予測ステップ、および
前記子どもが起床すると予測されたとき、予測結果を通知する通知ステップを実行する、起床予測方法。
The wake-up notification system processor
An obtaining step for obtaining a wake-up factor;
A prediction method for predicting whether or not a child wakes up by the wake-up factor, and a notification step of notifying a prediction result when the child is predicted to wake up.
起床因子を取得する取得手段、
前記起床因子によって子どもが起床するかを予測する予測手段、および
前記子どもが起床すると予測されたとき、予測結果を通知する通知手段を備える、起床通知装置。
An acquisition means for acquiring a wake-up factor;
A wake-up notification device comprising: prediction means for predicting whether a child wakes up by the wake-up factor; and notification means for notifying a prediction result when the child is predicted to wake up.
JP2014004014A 2014-01-14 2014-01-14 Wakeup notification system, wakeup notification program, wakeup notification method, and wakeup notification device Active JP6459172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014004014A JP6459172B2 (en) 2014-01-14 2014-01-14 Wakeup notification system, wakeup notification program, wakeup notification method, and wakeup notification device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014004014A JP6459172B2 (en) 2014-01-14 2014-01-14 Wakeup notification system, wakeup notification program, wakeup notification method, and wakeup notification device

Publications (2)

Publication Number Publication Date
JP2015133608A true JP2015133608A (en) 2015-07-23
JP6459172B2 JP6459172B2 (en) 2019-01-30

Family

ID=53900524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014004014A Active JP6459172B2 (en) 2014-01-14 2014-01-14 Wakeup notification system, wakeup notification program, wakeup notification method, and wakeup notification device

Country Status (1)

Country Link
JP (1) JP6459172B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101740285B1 (en) 2015-11-16 2017-05-26 이성용 The smart furniture
JP2018013929A (en) * 2016-07-20 2018-01-25 株式会社ガイア・システム・ソリューション Wake-up monitoring device
JP6382433B1 (en) * 2017-11-30 2018-08-29 ユニファ株式会社 Childcare management system, server device, childcare management program, and childcare management method
JP2021518797A (en) * 2018-03-23 2021-08-05 曹可瀚 Bedding and how to adjust it
JPWO2021200044A1 (en) * 2020-03-31 2021-10-07
CN113524218A (en) * 2021-07-26 2021-10-22 浙江齐步智能科技有限公司 Facial expression-based alarm system of elderly accompanying robot

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3004376U (en) * 1994-05-18 1994-11-15 株式会社堀場製作所 Awakening detection device for infants
JP2005186197A (en) * 2003-12-25 2005-07-14 Victor Co Of Japan Ltd Network robot
JP2006127057A (en) * 2004-10-27 2006-05-18 Canon Inc Estimation device and its control method
JP2006302173A (en) * 2005-04-25 2006-11-02 Aruze Corp Infant monitoring device
JP2009240661A (en) * 2008-03-31 2009-10-22 Toyota Motor Corp Health care network system
JP2012249259A (en) * 2011-05-31 2012-12-13 Sanyo Electric Co Ltd Room monitoring system, and telephone device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3004376U (en) * 1994-05-18 1994-11-15 株式会社堀場製作所 Awakening detection device for infants
JP2005186197A (en) * 2003-12-25 2005-07-14 Victor Co Of Japan Ltd Network robot
JP2006127057A (en) * 2004-10-27 2006-05-18 Canon Inc Estimation device and its control method
JP2006302173A (en) * 2005-04-25 2006-11-02 Aruze Corp Infant monitoring device
JP2009240661A (en) * 2008-03-31 2009-10-22 Toyota Motor Corp Health care network system
JP2012249259A (en) * 2011-05-31 2012-12-13 Sanyo Electric Co Ltd Room monitoring system, and telephone device

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101740285B1 (en) 2015-11-16 2017-05-26 이성용 The smart furniture
JP2018013929A (en) * 2016-07-20 2018-01-25 株式会社ガイア・システム・ソリューション Wake-up monitoring device
JP6382433B1 (en) * 2017-11-30 2018-08-29 ユニファ株式会社 Childcare management system, server device, childcare management program, and childcare management method
JP2019101642A (en) * 2017-11-30 2019-06-24 ユニファ株式会社 Child-care management system, server device, child-care management program, and child-care management method
JP2021518797A (en) * 2018-03-23 2021-08-05 曹可瀚 Bedding and how to adjust it
JPWO2021200044A1 (en) * 2020-03-31 2021-10-07
WO2021200044A1 (en) * 2020-03-31 2021-10-07 インフィック株式会社 Bed-leaving prediction notification device and program
JP7406737B2 (en) 2020-03-31 2023-12-28 インフィック株式会社 Bed leaving prediction notification device and program
CN113524218A (en) * 2021-07-26 2021-10-22 浙江齐步智能科技有限公司 Facial expression-based alarm system of elderly accompanying robot
CN113524218B (en) * 2021-07-26 2022-11-22 深圳万普瑞邦技术有限公司 Facial expression-based alarm system of elderly accompanying robot

Also Published As

Publication number Publication date
JP6459172B2 (en) 2019-01-30

Similar Documents

Publication Publication Date Title
JP6459172B2 (en) Wakeup notification system, wakeup notification program, wakeup notification method, and wakeup notification device
EP3041200B1 (en) Wristband-type information processing device, information processing system, information processing method, and program
CN107643921A (en) For activating the equipment, method and computer-readable recording medium of voice assistant
TWI468003B (en) Event notification method, portable device with event notification function, and computer program product for event notification
KR20190141739A (en) Low-power ambient computing system with machine learning
WO2012144396A1 (en) Information processing device, information processing method, and program
JP6093124B2 (en) Supervisory system
CN106716468A (en) Providing notifications based on user activity data
JP2017010516A (en) Method, apparatus, and terminal device for human-computer interaction based on artificial intelligence
JP2006127057A (en) Estimation device and its control method
CN103217892A (en) Alarm clock system based on robot and using method of alarm clock system
JP6402718B2 (en) Information processing apparatus, control method, and program
US10576632B2 (en) Standby mode of a humanoid robot
TWI795663B (en) personal assistant control system
JPWO2017179094A1 (en) Sleeping state detection system, sleeping state detection device, and sleeping state detection program
JP6281164B2 (en) Play action recognition system, play action recognition program, play action recognition method, and play action recognition apparatus
JP2006302173A (en) Infant monitoring device
JP6347347B2 (en) Notification system, notification program, notification method, and notification device
KR102150623B1 (en) Method and system for analyzing baby behavior
TWI624738B (en) System and method of detecting intelligent alarm clock
He et al. An elderly care system based on multiple information fusion
CN106779575A (en) A kind of intelligent reminding system and method based on smart machine
JP6340626B2 (en) Notification system, notification program, notification method, and notification device
JP2015136386A (en) Excretion management system, excretion management program, excretion management method and excretion management device
TW201724084A (en) System and method for interpreting baby language

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181217

R150 Certificate of patent or registration of utility model

Ref document number: 6459172

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250