JP2015133608A - Wake-up notification system, wake-up notification program, wake-up notification method, and wake-up notification device - Google Patents
Wake-up notification system, wake-up notification program, wake-up notification method, and wake-up notification device Download PDFInfo
- Publication number
- JP2015133608A JP2015133608A JP2014004014A JP2014004014A JP2015133608A JP 2015133608 A JP2015133608 A JP 2015133608A JP 2014004014 A JP2014004014 A JP 2014004014A JP 2014004014 A JP2014004014 A JP 2014004014A JP 2015133608 A JP2015133608 A JP 2015133608A
- Authority
- JP
- Japan
- Prior art keywords
- wake
- child
- notification
- time
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 47
- 230000004622 sleep time Effects 0.000 claims description 27
- 230000006870 function Effects 0.000 claims description 5
- 230000002618 waking effect Effects 0.000 abstract description 9
- 238000010801 machine learning Methods 0.000 abstract description 5
- 230000000474 nursing effect Effects 0.000 abstract 4
- 230000008569 process Effects 0.000 description 39
- 230000007613 environmental effect Effects 0.000 description 21
- 230000007958 sleep Effects 0.000 description 15
- 238000004891 communication Methods 0.000 description 8
- 230000007704 transition Effects 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000013500 data storage Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000036578 sleeping time Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000012706 support-vector machine Methods 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000000611 regression analysis Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000002390 adhesive tape Substances 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 210000001217 buttock Anatomy 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 230000036385 rapid eye movement (rem) sleep Effects 0.000 description 1
Images
Landscapes
- Alarm Systems (AREA)
- Selective Calling Equipment (AREA)
- Telephone Function (AREA)
- Telephonic Communication Services (AREA)
- Electric Clocks (AREA)
Abstract
Description
この発明は、起床通知システム、起床通知プログラム、起床通知方法および起床通知装置に関し、特にたとえば、寝ている子ども対して利用可能な、起床通知システム、起床通知プログラム、起床通知方法および起床通知装置に関する。 The present invention relates to a wake-up notification system, a wake-up notification program, a wake-up notification method, and a wake-up notification device, and more particularly to, for example, a wake-up notification system, a wake-up notification program, a wake-up notification method, and a wake-up notification device that can be used for sleeping children. .
背景技術の一例が特許文献1に開示されている。この特許文献1の目覚ましシステムでは、ユーザの生命体情報に基づいて、睡眠中のユーザがレム睡眠状態となる時間帯を予測することが出来る。予測された時間帯に予め決められた起床予定時刻が含まれている場合は、その時間帯が起床時間帯として特定される。一方、予測された時間帯に起床予定時刻が含まれていない場合は、最も近い時間帯が起床時間帯として特定される。そして、起床時間帯において起床予定時刻に最も近い時刻が起床時刻と特定される。
An example of background art is disclosed in
ところが、特許文献1の目覚ましシステムでは、起床予定時刻を予め決めていなければ、起床時刻を特定することが出来ない。そのため、目覚ましを利用していない子どもなどの場合、このシステムを利用することは出来ない。
However, in the alarm system of
それゆえに、この発明の主たる目的は、新規な、起床通知システム、起床通知プログラム、起床通知方法および起床通知装置を提供することである。 Therefore, a main object of the present invention is to provide a novel wakeup notification system, wakeup notification program, wakeup notification method, and wakeup notification device.
この発明の他の目的は、保育者の負担を軽減することが出来る、起床通知システム、起床通知プログラム、起床通知方法および起床通知装置を提供することである。 Another object of the present invention is to provide a wake-up notification system, a wake-up notification program, a wake-up notification method, and a wake-up notification device that can reduce the burden on the childcare worker.
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。 The present invention employs the following configuration in order to solve the above problems. The reference numerals in parentheses, supplementary explanations, and the like indicate the corresponding relationship with the embodiments described in order to help understanding of the present invention, and do not limit the present invention.
第1の発明は、起床因子を取得する取得手段、起床因子によって子どもが起床するかを予測する予測手段、および子どもが起床すると予測されたとき、予測結果を通知する通知手段を備える、起床通知システムである。 The first invention comprises an acquisition means for acquiring a wake-up factor, a prediction means for predicting whether a child wakes up by the wake-up factor, and a notification means for notifying a prediction result when the child is predicted to wake up. System.
第1の発明では、起床通知システム(100:実施例において対応する部分を例示する参照符号。以下、同じ。)は、たとえば子どもがベッドで寝ている空間で利用される。取得手段(80,S3−S13)は、たとえばベッドの周辺に配置された距離画像センサ(12)、マイク(14)、温度センサ(16)、湿度センサ(18)および照度センサ(20)などを利用して、寝ている子どもの起床を予測するために起床因子を取得する。たとえば、取得された起床因子を教師データとし、その教師データをSVMなどの機械学習手法によって学習することで、判別モデルが作成される。予測手段(80,S35)は、たとえばこのようにして作成された判別モデルを利用して、所定時間内に子どもが起床するかを予測する。通知手段(80,S39)は、たとえば所定時間内に子どもが起床すると予測されると、保育者が所持する携帯端末(22)などに対して予測結果を通知する。 In the first invention, the wake-up notification system (100: reference numerals exemplifying corresponding parts in the embodiment, hereinafter the same) is used, for example, in a space where a child is sleeping on a bed. The acquisition means (80, S3-S13) includes, for example, a distance image sensor (12), a microphone (14), a temperature sensor (16), a humidity sensor (18), and an illuminance sensor (20) arranged around the bed. Use it to get a wake-up factor to predict the wake-up of a sleeping child. For example, a discrimination model is created by using the acquired wake-up factor as teacher data and learning the teacher data by a machine learning technique such as SVM. The predicting means (80, S35) predicts whether or not the child will wake up within a predetermined time by using, for example, the discrimination model created in this way. A notification means (80, S39) notifies a prediction result with respect to the portable terminal (22) etc. which a childcare person possesses, for example, when a child is predicted to get up within a predetermined time.
第1の発明によれば、保育者は、子どもが起床するタイミングを把握することが出来るため、子どもが起床するまでの時間を利用して保育行動の準備をすることが出来る。したがって、保育者の負担が軽減される。 According to the first invention, since the childcare person can grasp the timing when the child wakes up, the childcare person can prepare for childcare behavior using the time until the child wakes up. Therefore, the burden on the childcare worker is reduced.
第2の発明は、第1の発明に従属し、起床因子は、子どもが居る空間で発生した音の音量の最大値を含み、予測手段は、最大値を利用して、子どもが起床するかを予測する。 The second invention is dependent on the first invention, the wake-up factor includes a maximum value of a sound volume generated in a space where the child is present, and the predicting means uses the maximum value to determine whether the child wakes up. Predict.
第2の発明では、たとえば、空間内で大きな音が発生すると子どもが起床する可能性が高くなる。そのため、予測手段は、空間内で発生した音の最大値を利用して、子どもが起床するかを予測する。 In the second invention, for example, when a loud sound is generated in the space, the possibility that the child will wake up becomes high. Therefore, the predicting means predicts whether the child will get up using the maximum value of the sound generated in the space.
第2の発明によれば、空間内で発生した音の最大値を利用して、子どもの起床を予測することが出来る。 According to the second invention, the child's wake-up can be predicted using the maximum value of the sound generated in the space.
第3の発明は、第1の発明または第2の発明に従属し、起床因子は、子どもの睡眠時間を含み、予測手段は、睡眠時間を利用して、子どもが起床するかを予測する。 A third invention is dependent on the first invention or the second invention, the wake-up factor includes the sleep time of the child, and the predicting means predicts whether the child wakes up using the sleep time.
第3の発明では、たとえば、子どもの睡眠時間が平均睡眠時間よりも長くなると、子どもが起床する可能性が高くなる。そのため、予測手段は、子どもの睡眠時間を利用して、子どもが起床するかを予測する。 In the third invention, for example, when the sleeping time of the child is longer than the average sleeping time, the possibility that the child wakes up increases. Therefore, the predicting means predicts whether or not the child will wake up using the sleeping time of the child.
第3の発明によれば、子どもの睡眠時間を利用して、子どもの起床を予測することが出来る。 According to the third aspect, the child's sleep time can be used to predict the child's wake-up.
第4の発明は、第1の発明ないし第3の発明のいずれかに従属し、コンテンツを出力するロボットをさらに備え、子どもが起床すると予測されたとき、ロボットがコンテンツを出力する。 A fourth invention is according to any one of the first to third inventions, further comprising a robot that outputs content, and when the child is predicted to wake up, the robot outputs the content.
第4の発明では、ロボット(10)は、たとえば子どもが寝ているベッドの手すりに配置され、挨拶などのコンテンツを出力する。たとえば、ロボットは子どもが起床すると予測されるとスタンバイ状態からアクティブ状態に遷移して、ロボットがコンテンツを出力する。 In the fourth invention, the robot (10) is arranged, for example, on a handrail of a bed where a child is sleeping, and outputs content such as a greeting. For example, when it is predicted that a child will wake up, the robot changes from a standby state to an active state, and the robot outputs content.
第4の発明によれば、子どもが起床してから行う保育行動が補助されるため、保育者の負担が軽減される。 According to the fourth aspect of the invention, since the childcare action that is performed after the child gets up is assisted, the burden on the childcare worker is reduced.
第5の発明は、第4の発明に従属し、子どもが起床したかを判断する判断手段をさらに備え、子どもが起床したと判断されたとき、ロボットがコンテンツを出力する。 The fifth invention is dependent on the fourth invention and further comprises a judging means for judging whether the child has woken up, and when it is judged that the child has woken up, the robot outputs the content.
第5の発明では、判断手段(36,S63,S65)は、たとえば子どもの顔を撮影し、撮影した画像に対して画像認識処理を加えることで、子どもが起床したかを判断する。そして、子どもが起床したと判断されると、ロボットがコンテンツを出力する。 In the fifth invention, the determination means (36, S63, S65), for example, captures the child's face and applies image recognition processing to the captured image to determine whether the child has woken up. When it is determined that the child has woken up, the robot outputs the content.
第5の発明によれば、子どもに対するコンテンツの出力が適切なタイミングで行われる。 According to the fifth aspect, the content is output to the child at an appropriate timing.
第6の発明は、起床通知システムのプロセッサ(80)を、起床因子を取得する取得手段(S3−S13)、起床因子によって子どもが起床するかを予測する予測手段(S35)、および子どもが起床すると予測されたとき、予測結果を通知する通知手段(S39)として機能させる、起床予測プログラムである。 The sixth invention provides a processor (80) of the wake-up notification system for obtaining means (S3-S13) for obtaining a wake-up factor, predicting means (S35) for predicting whether the child wakes up by the wake-up factor, and Then, when predicted, this is a wake-up prediction program that functions as notifying means (S39) for notifying the prediction result.
第6の発明でも、第1の発明と同様、保育者は、子どもが起床するタイミングを把握することが出来るため、子どもが起床するまでの時間を利用して保育行動の準備をすることが出来る。 In the sixth invention as well, as in the first invention, the childcare worker can grasp the timing when the child wakes up, and can use the time until the child wakes up to prepare for childcare behavior. .
第7の発明は、起床通知システムのプロセッサ(80)が、起床因子を取得する取得ステップ(S3−S13)、起床因子によって子どもが起床するかを予測する予測ステップ(S35)、および子どもが起床すると予測されたとき、予測結果を通知する通知ステップ(S39)を実行する、起床予測方法である。 In the seventh invention, the processor (80) of the wake-up notification system acquires the wake-up factor (S3-S13), the prediction step (S35) for predicting whether the child wakes up by the wake-up factor, and the child wakes up Then, when predicted, this is a wake-up prediction method that executes a notification step (S39) of notifying the prediction result.
第7の発明でも、第1の発明と同様、保育者は、子どもが起床するタイミングを把握することが出来るため、子どもが起床するまでの時間を利用して保育行動の準備をすることが出来る。 In the seventh invention as well, as in the first invention, the childcare worker can grasp the timing when the child wakes up, and can use the time until the child wakes up to prepare for childcare behavior. .
第8の発明は、起床因子を取得する取得手段(80,S3−S13)、起床因子によって子どもが起床するかを予測する予測手段(80,S35)、および子どもが起床すると予測されたとき、予測結果を通知する通知手段(80,S39)を備える、起床通知装置である。 The eighth aspect of the invention relates to an acquisition means (80, S3-S13) for acquiring a wake-up factor, a prediction means (80, S35) for predicting whether a child wakes up by the wake-up factor, and when the child is predicted to wake up, This is a wake-up notification device including notification means (80, S39) for notifying the prediction result.
第8の発明でも、第1の発明と同様、保育者は、子どもが起床するタイミングを把握することが出来るため、子どもが起床するまでの時間を利用して保育行動の準備をすることが出来る。 In the eighth invention as well, as in the first invention, the childcare person can grasp the timing when the child wakes up, and can use the time until the child wakes up to prepare for childcare behavior. .
この発明によれば、保育者の負担を軽減することが出来る。 According to this invention, the burden on the childcare worker can be reduced.
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features, and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例の起床通知システム100は子どもが寝ている部屋などの空間(環境)で利用される。たとえば、空間内にはベッドが配置されており、子どもはベッドの上で寝る。親や保育士などの保育者は空間内または空間の周囲におり、子どもを保育したり、家事などを行ったりしている。また、子どもの周囲には、ロボット10、距離画像センサ12、マイク14、温度センサ16、湿度センサ18および照度センサ20が設けられている。そして、保育者は携帯端末22を所持している。
With reference to FIG. 1, the wake-
ロボット10は子どもの視界に入るように設けられている。実施例では、ロボット10は、子どもの視界に入る位置としてベッドの手すりに配置されている。また、ロボット10は、挨拶や音楽などのコンテンツを出力することによって子どもの注意をひきつけることが出来る。
The
距離画像センサ12は、子どもの動きを検出することを目的として、ベッドの上に設けられている。マイク14は、空間内で発生する音(雑音)を集音するために、ベッドの手すりに設けられている。温度センサ16は、子どもの周囲の温度を計測するために、ベッドの手すりに設けられている。湿度センサ18は、子どもの周囲の湿度を計測するために、ベッドの手すりに設けられている。照度センサ20は、子どもが居る空間の照度を計測するために、ベッドの手すりに設けられている。
The
携帯端末22は保育者によって所持される携帯電話機である。起床通知システム100は、携帯端末22に対してメッセージを送信(通知)し、携帯端末22はメッセージを受信すると、音声または振動などによってメッセージの受信を保育者に知らせる。そして、保育者は起床通知システム100からのメッセージを、携帯端末22を利用して確認することが出来る。なお、他の実施例では、ipod touch(登録商標)やPDAなどのデータ端末が、携帯端末22として採用されてもよい。
The
起床通知システム100は、距離画像センサ12、マイク14、温度センサ16、湿度センサ18および照度センサ20を利用して、子どもの起床を予測する。そして、予測結果は携帯端末22に対して通知される。
The wake-up
なお、実施例の空間は子どもが寝ている部屋であるが、これに限らず保育園、幼稚園、学童保育所および病院などで子どもが寝ることが可能な空間であれば、起床通知システム100は利用可能である。
In addition, although the space of an Example is a room where the child is sleeping, not only this but the wake-up
また、距離画像センサ12、マイク14、温度センサ16、湿度センサ18および照度センサ20は、空間内に複数置かれてもよい。また、マイク14、温度センサ16、湿度センサ18および照度センサ20は、ベッドの手すり以外の場所に設けられてもよい。
A plurality of
図2を参照して、起床通知システム100の中央制御装置24は、起床通知装置とも呼ばれ、距離画像センサ12、マイク14、温度センサ16、湿度センサ18および照度センサ20などが接続される。また、中央制御装置24は、ネットワーク1000を介して、ロボット10および携帯端末22と無線通信を行う。中央制御装置24は、第1時間(たとえば、0.05秒)毎に、距離画像センサ12、マイク14、温度センサ16、湿度センサ18および照度センサ20が出力するセンサ情報を取得する。そして、中央制御装置24は、取得した各センサの情報から、子どもの動き、空間内で発生した音の音情報などを含む環境データ(図7参照)をテーブルに記憶する。
Referring to FIG. 2,
図3(A)はロボット10の正面の外観を示し、図3(B)はロボット10の側面の外観を示す。図3(A),(B)を参照して、ロボット10は、子どもが抱えることが出来る程度の大きさであり、頭部、胴体、2本の腕および2本の足を有する人形のような形状をしている。ロボット10の頭部において、口の部分にはスピーカ30が設けられており、左目の部分にはカメラ32が設けられている。また、胴体と足との接続部分、つまり臀部は配置部34と呼ばれる。
FIG. 3A shows the appearance of the front of the
スピーカ30は発話コンテンツや、音楽コンテンツを出力するために利用される。カメラ32は、子どもを撮影するために利用される。配置部34は、ロボット10を安定してベッドの手すりなどに配置することが出来るように、略水平な状態にされている。なお、ロボット10をベッドの配置する際に、マジックテープ(登録商標)や、ゴムバンドおよび粘着テープなどが利用されてもよい。
The
図4はロボット10の電気的な構成を示す図解図である。図4を参照して、ロボット10は、マイクロコンピュータ或いはCPUと呼ばれることがある、プロセッサ36などを含む。プロセッサ36には、カメラ32、メモリ38、D/A変換機40および無線LANモジュール42などが接続される。
FIG. 4 is an illustrative view showing an electrical configuration of the
プロセッサ36はロボット10の全体を制御する。また、プロセッサ36は、コンテンツの出力などを行うアクティブ状態と、アクティブ状態に比べて消費電力が抑えられるスタンバイ状態とを設定することが出来る。たとえば、プロセッサ36は、中央制御装置24からアクティブ信号を受信したときに、ロボット10をアクティブ状態とする。
The
メモリ38はROMおよびRAMを含む。ROMには、回路の動作を制御するための制御プログラムが予め記憶される。また、RAMはプロセッサ36のワークメモリやバッファメモリとして用いられる。また、ROMには、挨拶や音楽のコンテンツが記憶される。
The
D/A変換器40にはスピーカ30が接続される。D/A変換器40はコンテンツを音声信号に変換して、アンプを介してスピーカ30に与える。したがって、コンテンツに基づく音声がスピーカ30から出力される。
A
カメラ32によって撮影された子どもの画像は、プロセッサ36に入力される。プロセッサ36はその画像に対して画像認識処理を加え、認識結果を利用して子どもが起きているかが判断される。
An image of a child photographed by the
無線LANモジュール42は、ネットワーク1000を介して、プロセッサ36から与えられた送信データを中央制御装置24に送信したり、中央制御装置24から送信された受信データをプロセッサ36に与えたりする。たとえば、送信データはカメラ32によって撮影された子どもの画像であり、受信データはロボット10をアクティブ状態に遷移させるための信号である。
The
図5は距離画像センサ12の電気的な構成を示すブロック図である。図5を参照して、距離画像センサ12は制御IC60などを含む。制御IC60には、A/D変換器62、カメラ66、深度センサ68、深度カメラ70およびI/O72などが接続される。
FIG. 5 is a block diagram showing an electrical configuration of the
制御IC60は、キャッシュメモリなどを有し、距離画像センサ12の動作を制御する。たとえば、制御IC60は、中央制御装置24からの命令に従って動作し、検出した結果を中央制御装置24に送信する。
The
A/D変換機62にはマイク64が接続され、マイク64からの音声信号はA/D変換機62でディジタル音声信号に変換され、制御IC60に入力される。また、マイク64によって集音された音は、マイク14によって集音された音と共に、空間内の雑音などの音量を計測するために利用される。
A
カメラ66は、距離画像センサ12が設置された空間のRGB情報、つまりカラー画像を撮影するためのカメラである。また、カメラ66は、後述する深度カメラ70が撮影している空間と略同じ空間を撮影することが可能なように、距離画像センサ12に設けられている。
The
深度センサ68は、たとえば赤外線プロジェクタであり、深度カメラ70は、たとえば赤外線カメラである。深度センサ68は、たとえば赤外線によるレーザ光を距離画像センサ12の正面に照射する。空間には照射されたレーザ光によって特殊なパターンが描画され、深度カメラ70は描画されたパターンを撮影する。そして、撮影された画像は制御IC60に入力され、制御IC60はその画像を解析することで、レーザ光が照射された空間の奥行(depth)情報を計測する。
The
I/O72は、入力/出力の制御が可能なディジタルポートであり、出力ポートからは音声信号、RGB情報および奥行情報が出力され、中央制御装置24に与えられる。一方、中央制御装置24からは制御信号が出力され、入力ポートに与えられる。
The I /
なお、距離画像センサ12は、RGB情報および奥行情報を出力することからRGB−Dセンサと呼ばれることもある。
The
また、実施例の距離画像センサ12には、Microsoft(登録商標)社製のKinect(登録商標)センサと呼ばれる製品が採用されている。ただし、他の実施例では、ASUS(登録商標)社製のXtion、パナソニック(登録商標)社製の3次元距離画像センサであるD−IMager(登録商標)などが距離画像センサ12として採用されてもよい。
The
図6は中央制御装置24の電気的な構成を示すブロック図である。図6を参照して、中央制御装置24は、マイクロコンピュータ或いはCPUと呼ばれることもあるプロセッサ80などを含む。プロセッサ80には、距離画像センサ12、温度センサ16、湿度センサ18、照度センサ20、メモリ82、A/D変換機84、出力装置86、入力装置88および通信LANボード90などが接続される。
FIG. 6 is a block diagram showing an electrical configuration of the
距離画像センサ12は、上述したように奥行情報などを出力する。この奥行情報には、空間に居る子ども(人)の形状および子どもまでの距離が含まれている。たとえば、子どもが天井に設けられた距離画像センサ12によってセンシングされると、ベッドの上で寝ている子どもの形状が奥行情報として得られる。
The
また、プロセッサ80は、距離画像センサ12から奥行情報を取得して、ベッドの上(ワールド座標系)における子どもの位置情報(たとえば、重心など特徴点の位置座標(X,Y,Z))を計算することが出来る。そして、実施例では、子どもの位置情報の時系列変化から子どもが動く速度が算出され、さらにその速度から子どもの動きを表す加速度が算出される。
Further, the
なお、他の実施例では、距離画像センサ12ではなく、2次元または3次元のLRFを利用して、子どもの位置および姿勢が検出されてもよい。また、その他の実施例では、ベッドの下などに加速度センサを配置することによって、子どもの動きを検出するようにしてもよい。
In another embodiment, the position and posture of the child may be detected using a two-dimensional or three-dimensional LRF instead of the
温度センサ16、湿度センサ18および照度センサ20のそれぞれから取得されたセンサの情報は、プロセッサ80に入力される。そして、プロセッサ80は、入力された各センサ情報に基づいて環境データを作成し、テーブルに記憶する。
Sensor information acquired from each of the
出力装置86は、たとえばディスプレイなどであり、入力装置88は、たとえばマウスやキーボードである。たとえば、保育者は出力装置86および入力装置88を利用して、中央制御装置24の状態を確認したり、中央制御装置に情報を入力したりすることが出来る。
The
通信LANボード90は、たとえばDSPで構成され、プロセッサ80から与えられた送信データを無線通信装置92に与え、無線通信装置92は送信データを、ネットワーク1000を介してロボット10または携帯端末22に送信する。また、通信LANボード90は、無線通信装置92を介してデータを受信し、受信したデータをプロセッサ80に与える。
The
図7は環境データテーブルの構成の一例を示す図解図である。環境データとは、或る日時における子どもの動きと、空間内で発生した音と、空間内の温度と、湿度および照度と、子どもの行動に関する時間とを含むデータである。そして、環境データテーブルには、1行毎にこれらの情報を含む環境データが記憶される。そのため、図7に示す環境データテーブルは、日時、子どもの動き、マイク、温度、湿度、照度、睡眠時間および起きている時間の列を含む。 FIG. 7 is an illustrative view showing one example of a configuration of the environment data table. The environmental data is data including a child's movement at a certain date and time, sound generated in the space, temperature in the space, humidity and illuminance, and time related to the child's action. The environmental data table stores environmental data including these pieces of information for each row. Therefore, the environment data table shown in FIG. 7 includes columns of date and time, child movement, microphone, temperature, humidity, illuminance, sleep time, and waking time.
日時の列には、環境データが作成された日時が記憶される。また、記憶される日時の形式としては、「yy」が「年」を示し、「mm」が「月」を示し、「dd」が「日」を示し、「H」が「時」を示し、「M」が「分」を示し、「S」が「秒」を示す。 The date and time column stores the date and time when the environmental data was created. As the format of the date and time stored, “yy” indicates “year”, “mm” indicates “month”, “dd” indicates “day”, and “H” indicates “hour”. , “M” indicates “minute”, and “S” indicates “second”.
子どもの動きの列には、子どもの動きを示す値として加速度「a」が記憶される。たとえば、寝ている子どもの動きが多くなると子どもが起床する可能性が高くなるため、子どもがそのような状態であるかを判断するために利用される。 In the child movement column, acceleration “a” is stored as a value indicating the child movement. For example, when the movement of a sleeping child increases, the possibility that the child will wake up increases, and this is used to determine whether the child is in such a state.
マイクの列には、距離画像センサ12のマイク64またはマイク14から取得された音の音量の最大として「MB」が記憶される。たとえば、急に大きな音が発生すると子どもが起床する可能性が高くなるため、そのような状況であるかを判断するために利用される。
In the microphone column, “MB” is stored as the maximum volume of the sound acquired from the
温度の列には、温度センサ16によって取得された温度「t」が記憶される。たとえば、空間が極端に暑くなったり、寒くなったりすると子どもが起床する可能性が高くなるため、空間がそのような状況であるかを判断するために利用される。
In the temperature column, the temperature “t” acquired by the
湿度の列には、湿度センサ18によって取得された湿度「h」が記憶される。たとえば、空間の湿度が極端に高くなると子どもが起床する可能性が高くなるため、空間がそのような状況であるかを判断するために利用される。
In the humidity column, the humidity “h” acquired by the
照度の列には、照度センサ20によって取得された照度「il」が記憶される。たとえば、空間が明るくなると子どもが起床する可能性が高くなるため、空間がそのような状況であるかを判断するために利用される。
In the illuminance column, the illuminance “il” acquired by the
睡眠時間の列には、子どもが就寝してからの時間として「ST」が記憶される。起き続けている時間の列には、子どもが起床してからの時間として「WT」が記憶される。時間「ST」は子どもが就寝したと判断されると対応する変数がカウントされ、時間「WT」は子どもが起床したと判断されると対応するカウンタがカウントされる。そして、時間「ST」および時間「WT」は、対応する変数に基づいて環境データテーブルに記憶される。また、実施例では、子どもの就寝および起床は、子どもの位置情報の変化に基づいて判断され、就寝したまたは起床したときにそれぞれ対応する変数が初期化される。なお、他の実施例では、子どもの就寝または起床は保育者からの通知に基づいて判断されてもよい。 In the sleep time column, “ST” is stored as the time since the child went to bed. “WT” is stored as the time since the child got up in the column of the time of staying up. When the time “ST” is determined that the child has gone to bed, the corresponding variable is counted, and when the time “WT” is determined that the child has woken up, the corresponding counter is counted. The time “ST” and the time “WT” are stored in the environment data table based on the corresponding variables. Further, in the embodiment, the sleep and wake-up of the child are determined based on the change in the position information of the child, and the corresponding variables are initialized when the child goes to sleep or wakes up. In other embodiments, the child's sleep or wake-up may be determined based on a notification from the childcare worker.
たとえば、睡眠時間「ST」が平均睡眠時間よりも長くなると子どもが起床する可能性が高くなる。また、起きている時間「WT」が長くなると子どもが起床する可能性は低くなる。そのため、睡眠時間「ST」および起きている時間「WT」は、子どもがこれらの状態であるかを判断するために利用される。なお、実施例では子どもの睡眠時間の平均がメモリ82に記憶される。
For example, if the sleep time “ST” is longer than the average sleep time, the child is likely to get up. In addition, the longer the wake-up time “WT”, the lower the possibility that the child will get up. Therefore, the sleep time “ST” and the waking time “WT” are used to determine whether the child is in these states. In the embodiment, the average sleep time of the child is stored in the
中央制御装置24は、環境データテーブルに対して、第1時間毎にこのような環境データを記憶する。そして、中央制御装置24は、第2時間毎に子どもの起床の予測を行う。
The
なお、環境データに含まれる、子どもの動き、音量の最大、温度、湿度、照度、睡眠時間および起きている時間の情報は子どもの起床を予測するための情報であり、まとめて起床因子と呼ばれることがある。 In addition, the information on the child's movement, maximum volume, temperature, humidity, illuminance, sleep time, and waking time included in the environmental data is information for predicting the child's wake-up and is collectively called the wake-up factor. Sometimes.
実施例では、子ども起床する所定時間前から第2時間分の起床因子を教師データとし、SVM(Support vector machine)などの機械学習手法によって教師データを学習する。その結果、所定時間内の起床を予測する判別モデルが作成される。この判別モデルに対して第2時間分の未知の起床因子を入力すると、所定時間内に子どもが起床する確率が予測結果として出力される。そして、その確率が閾値よりも大きいとき、所定時間内に子どもが起床すると判断される。 In the embodiment, teacher data is learned by a machine learning method such as SVM (Support Vector Machine) using the wake-up factor for the second time as teacher data from a predetermined time before the child wakes up. As a result, a discrimination model for predicting wakeup within a predetermined time is created. When an unknown wake-up factor for the second time is input to this discrimination model, the probability that the child will wake up within a predetermined time is output as a prediction result. When the probability is greater than the threshold value, it is determined that the child wakes up within a predetermined time.
たとえば、起床を予測する判別モデルに対して、第2時間分の起床因子が未知データとして入力されたときに確率が85%と出力された場合、閾値が80%であれば子どもが所定時間内に起床すると判断される。また、閾値が90%であれば子どもが所定時間内に起床することはないと判断される。 For example, when a wake-up factor for the second time is input as unknown data for a discrimination model that predicts wake-up, the probability is output as 85%. It is judged to get up. If the threshold is 90%, it is determined that the child will not get up within a predetermined time.
図8を参照して、たとえば予測結果として出力された確率が閾値より大きい場合、中央制御装置24は、保育者が所持する携帯端末22に対して、所定時間内に子どもが起床することを伝えるメッセージを送信する。保育者は、メッセージを確認することで子どもが起床するタイミングを把握することが出来るため、子どもが起床するまでの時間を利用して保育行動の準備をすることが出来る。したがって、保育者の負担が軽減される。
Referring to FIG. 8, for example, when the probability output as a prediction result is larger than a threshold value,
また、実施例では、子どもの起床が予測されると、ロボット10はアクティブ状態に遷移する。ロボット10がアクティブ状態に遷移すると、ロボット10のカメラ32によって子どもが撮影され、撮影した画像に対して顔認識の処理が加えられる。ロボット10は、認識された子どもの目が開いているか、つまり起床したかを一定周期毎に判断する。そして、ロボット10は、子どもが起床したことを認識すると、たとえば、「おはよう」と挨拶したり、音楽を流したりする。これにより、子どもが起床してから行う保育行動が補助されるため、保育者の負担が軽減される。特に、ロボット10は子どもの起床を認識するため、子どもに対するコンテンツの出力が適切なタイミングで行われる。
Further, in the embodiment, when the child is expected to wake up, the
なお、実施例では、起床の予測は、環境データを取得するために必要な第1時間よりも長い第2時間毎に認識される。つまり、子どもの起床を予測するために必要な環境データ(起床因子)が取得されてから起床が予測される。これにより、子どもの起床を正確に予測することが出来る。 In the embodiment, the wake-up prediction is recognized every second time longer than the first time necessary for acquiring the environmental data. That is, wake-up is predicted after environmental data (wake-up factor) necessary for predicting child wake-up is acquired. This makes it possible to accurately predict the child's getting up.
上述では実施例の特徴を概説した。以下では、図9に示す中央制御装置24のメモリ82のメモリマップ、図10に示すロボット10のメモリ38のメモリマップ、図11−図13に示すフロー図を用いて、実施例について詳細に説明する。
The above has outlined features of the embodiment. Hereinafter, the embodiment will be described in detail with reference to the memory map of the
図9は図6に示す中央制御装置24のメモリ82のメモリマップの一例を示す図解図である。図9に示すように、メモリ82はプログラム領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、中央制御装置24を動作させるためのプログラムとして、各センサから情報を取得し、環境データテーブルに環境データを記憶するための取得プログラム310および起床を予測し、通知するための起床通知プログラム312などが記憶される。なお、図示は省略するが、中央制御装置24を動作させるためのプログラムには、通知するメッセージを作成するためのプログラムなども含まれる。
FIG. 9 is an illustrative view showing one example of a memory map of the
データ記憶領域304には、環境データテーブル330および平均睡眠時間データ332に記憶されると共に、睡眠フラグ334などが設けられる。環境データテーブル330は、たとえば図7に示す構成のテーブルであり、環境データが記憶される。平均睡眠時間データ332は、環境データテーブル330に記憶されている睡眠時間を利用して算出される値を含むデータである。
The
睡眠フラグ334は、睡眠時間「ST」および起きている時間「WT」を計測するときに利用されるフラグである。たとえば、睡眠フラグ334は、1ビットのレジスタで構成される。睡眠フラグ334がオン(成立)されると、レジスタにはデータ値「1」が設定される。一方、睡眠フラグ334がオフ(不成立)されると、レジスタにはデータ値「0」が設定される。
The
睡眠フラグ334は、たとえば子どもが就寝したと判断されるとオンとなり、子どもが起床するとオフとなる。睡眠フラグ334がオンにされると、つまり子どもが就寝すると、睡眠時間「ST」をカウントするための変数が初期化され、睡眠時間「ST」の計測が開始される。また、起きている時間「WT」と対応する変数のカウントが停止される。一方、睡眠フラグ334がオフにされると、つまり子どもが起床すると、起きている時間「WT」をカウントするための変数が初期化され、子どもが起きている時間「WT」の計測が開始される。また、睡眠時間「ST」と対応する変数のカウントが停止される。
For example, the
なお、図示は省略するが、データ記憶領域304には、様々な計算の結果を一時的に格納するバッファや、中央制御装置24の動作に必要な他のカウンタやフラグなども設けられる。
Although not shown, the
図10は図4に示すロボット10のメモリ38のメモリマップの一例を示す図解図である。図10に示すように、メモリ38はプログラム領域402およびデータ記憶領域404を含む。プログラム記憶領域404には、ロボット10を動作させるためのプログラムとして、アクティブ状態に遷移した後にコンテンツを出力するための起床対応プログラム410などが記憶される。なお、図示は省略するが、ロボット10を動作させるためのプログラムには、顔認識を行うためのプログラムなども含まれる。
FIG. 10 is an illustrative view showing one example of a memory map of the
データ記憶領域404には、様々な計算の結果を一時的に格納するバッファや、ロボット10の動作に必要な他のカウンタやフラグなども設けられる。
The
中央制御装置24のプロセッサ80は、Linux(登録商標)ベースのOSや、その他のOSの制御下で、図11に示す取得処理および図12に示す起床通知処理などを含む、複数のタスクを処理する。
The
図11は取得処理のフロー図である。中央制御装置24の電源がオンにされ、取得処理の実行命令が出されると、取得処理が実行される。なお、取得処理の実行命令は、第1時間毎に出される。
FIG. 11 is a flowchart of the acquisition process. When the
取得処理が実行されると、プロセッサ80はステップS1で、現在時刻を取得する。たとえば、プロセッサ80が有するRTCから現在時刻を取得する。続いて、ステップS3でプロセッサ80は、距離画像センサ12の情報を取得する。つまり、プロセッサ80は、距離画像センサ12が出力する奥行情報および音声信号を取得する。
When the acquisition process is executed, the
続いて、プロセッサ80は、ステップS5でマイク14から音声信号を取得し、ステップS7で温度センサ16から温度を取得し、ステップS9で湿度センサ18から湿度を取得し、ステップS11で照度センサから照度を取得する。つまり、子どもの周囲の音の音量、温度、湿度および照度が取得される。
Subsequently, the
続いて、ステップS13でプロセッサ80は、各時間を算出する。つまり、睡眠時間「ST」および起きている時間「WT」のそれぞれが、対応する変数に基づいて算出される。なお、ステップS3−13の処理を実行するプロセッサ80は取得手段として機能する。
Subsequently, in step S13, the
続いて、ステップS15でプロセッサ80は、環境データを作成する。つまり、奥行情報に基づいて子どもの動き(加速度)が計算され、マイク14および距離画像センサ12のマイク64から最大の音量を選択する。そして、これらの値に、温度、湿度および照度と、ステップS13で算出された各時間とが加えられ、1つの環境データとされる。
Subsequently, in step S15, the
続いて、ステップS17でプロセッサ80は、現在時刻および環境データを記憶する。つまり、ステップS1で取得された現在時刻の情報に環境データが関連付けられ、環境データテーブル330に記憶される。そして、ステップS17の処理が終了すると、プロセッサ80は取得処理を終了する。
Subsequently, in step S17, the
図12は起床通知処理のフロー図である。中央制御装置24の電源がオンにされ、通知処理の実行命令が出されると、起床通知処理が実行される。なお、起床通知処理の実行命令は、第2時間毎に出される。
FIG. 12 is a flowchart of the wake-up notification process. When the
起床通知処理が実行されると、ステップS31でプロセッサ80は、ベッドに子どもが居るかを判断する。つまり、距離画像センサ12によって子どもの位置が検出されているかが判断される。ステップS31で“NO”であれば、つまりベッドに子どもが居なければ、プロセッサ80は起床通知処理を終了する。
When the wake-up notification process is executed, in step S31, the
ステップS31で“YES”であれば、つまりベッドに子どもが居れば、ステップS33でプロセッサ80は、現在時刻から第2時間分の環境データを取得する。つまり、起床因子である、子どもの動き、音量の最大、温度、湿度、照度、睡眠時間および起きている時間が環境データテーブル330から読み出される。続いて、ステップS35でプロセッサ80は、起床予測処理を実行する。つまり、第2時間分の起床因子が、起床を予測する判別モデルに入力される。なお、ステップS35の処理を実行するプロセッサ80は予測手段として機能する。
If “YES” in the step S31, that is, if there is a child in the bed, the
続いて、ステップS37でプロセッサ80は、予測結果の確率が閾値よりも大きいか否かを判断する。つまり、プロセッサ80は、所定時間後に子どもが起床する確率が、閾値よりも大きいかを判断する。ステップS37で“NO”であれば、つまり予測結果の確率が閾値よりも小さければ、プロセッサ80は起床通知処理を終了する。
Subsequently, in step S37, the
一方、ステップS37で“YES”であれば、つまり予測結果の確率が閾値よりも大きければ、ステップS39でプロセッサ80は、所定時間内に起床することを通知する。たとえば、図8に示すように、子どもが所定時間内に起床することを伝えるメッセージが、中央制御装置24から携帯端末22に送信される。なお、ステップS39の処理を実行するプロセッサ80は通知手段として機能する。
On the other hand, if “YES” in the step S37, that is, if the probability of the prediction result is larger than the threshold value, the
続いて、ステップS41でプロセッサ80は、ロボット10にアクティブ信号を送信する。つまり、ロボット10をアクティブ状態に遷移させるために、アクティブ信号がロボット10に送信される。そして、ステップS41の処理が終了すると、プロセッサ80は起床通知処理を終了する。
Subsequently, the
ロボット10のプロセッサ36は、Linux(登録商標)ベースのOSや、その他のOSの制御下で、図13に示す起床対応処理などを含む、複数のタスクを処理する。
The
図13は起床対応処理のフロー図である。ロボット10がアクティブ信号を受信してアクティブ状態に遷移すると、起床対応処理が実行される。
FIG. 13 is a flowchart of the wake-up response process. When the
起床対応処理が実行されると、ステップS61でプロセッサ36は、アクティブタイマを実行する。つまり、ロボット10がアクティブ状態にされてからの時間を計測するために、アクティブタイマが実行される。また、アクティブタイマは第2時間よりも長い第3時間が経過すると満了する。
When the wake-up response process is executed, the
続いて、ステップS63でプロセッサ36は、顔認識処理を実行する。つまり、カメラ32によって撮影し、撮影された画像に対して画像認識処理を加える。続いて、ステップS65でプロセッサ36は、起床したか否かを判断する。つまり、顔認識処理の結果、目を開いている子どもの顔が認識されたかが判断される。ステップS65で“YES”であえれば、つまり目を開いている子どもの顔が認識されると、ステップS67でプロセッサ36は、コンテンツを出力する。たとえば、ロボット10は、「おはよう」などの挨拶を発話する。そして、ステップS67の処理が終了すると、プロセッサ36はステップS71の処理に進む。なお、ステップS63,S65の処理を実行するプロセッサ36は判断手段として機能する。
Subsequently, in step S63, the
また、ステップS65で“NO”であれば、つまり目を開いている子どもの顔が認識されていなければ、ステップS69でプロセッサ36は、アクティブタイマが満了したか否かを判断する。つまり、ロボット10がアクティブ状態になってから第3所定時間が経過したかが判断される。ステップS69で“NO”であれば、つまりロボット10がアクティブ状態になってから第3所定時間が経過していなければ、プロセッサ36はステップS63の処理に戻る。
If “NO” in the step S65, that is, if the face of a child with open eyes is not recognized, the
一方、ステップS69で“YES”であれば、つまりロボット10がアクティブ状態になってから第3所定時間が経過すると、ステップS71でプロセッサ36は、スタンバイ状態に遷移する。つまり、予測とは異なり子どもが起床しない可能性があるため、ロボット10はスタンバイ状態に遷移する。そして、ステップS71の処理が終了すると、プロセッサ36は起床対応処理を終了する。
On the other hand, if “YES” in the step S69, that is, if the third predetermined time elapses after the
なお、他の実施例では、ロボット10はモータや車輪を備え、子どもが居る空間を自由に移動できてもよい。この場合、起床通知処理が実行されると、プロセッサ80はロボット10に対して、所定時間以内に子どもの所へ向かうことが出来るように、ロボット10に移動命令を出す。このとき、ロボット10がスタンバイ状態であればアクティブ状態に遷移した後に、所定時間内に子どもの所へ向かうことが出来る場所に移動し、ロボット10は再度スタンバイ状態となる。
In another embodiment, the
また、その他の実施例では、ロボット10はマイクをさらに備え、起床した子どもとコミュニケーション行動を行うことが出来てもよい。この場合、コミュニケーションによって子どもの注意をひきつけることが出来る時間が長くなるため、保育者の負担をより軽減することが出来る。
In another embodiment, the
また、さらにその他の実施例では、子どもが起床したかの判断を中央制御装置24が行い、その判断結果がロボット10に送信されるようにしてもよい。この場合、ロボット10の起床対応処理では、ステップS63の処理が省略され、ステップS65では中央制御装置24から起床したことを知らせる信号を受信したかを判断する。
In still another embodiment, the
また、実施例では、機械学習手法としてSVMを採用したが、他の実施例では、重回帰分析、ニューラルネットワークまたはC4.5などのアルゴリズムが採用されてもよい。たとえば、重回帰分析が採用された場合、起床因子の各値を説明変数として係数が計算される。そして、起床の予測結果の確率をZとし、睡眠時間の変数をXとした場合、重回帰分析によって数1の数式が得られる。
In the embodiment, SVM is used as a machine learning method. However, in other embodiments, multiple regression analysis, a neural network, or an algorithm such as C4.5 may be used. For example, when multiple regression analysis is employed, coefficients are calculated using each value of the wake-up factor as an explanatory variable. When the probability of the wake-up prediction result is Z and the sleep time variable is X, the
[数1]
Z=intercept+sX
このとき、子どもの睡眠時間が12時間になれば子どもが起床するとのデータが得られていれば、「intercept=1/13」および「s=1/13」とすれば、子どもの睡眠時間が12時間となったときに、起床の予測の確率Zが100%となる。
[Equation 1]
Z = intercept + sX
At this time, if data indicating that the child wakes up is obtained when the child's sleep time is 12 hours, if “intercept = 1/13” and “s = 1/13”, the child's sleep time When it becomes 12 hours, the probability Z of the wake-up prediction is 100%.
また、他の実施例では、機械学習は利用せずに、単純な閾値処理としてもよい。急に大きな音が発生すると子どもが起床する可能性が高い。そのため、音の最大が第1所定値も高い場合は、所定時間内に子どもが起床すると予測するようにしてもよい。つまり、空間内で発生した音の最大値を利用して、子どもの起床を予測することが出来る。 In another embodiment, simple threshold processing may be used without using machine learning. If there is a sudden loud noise, the child is likely to get up. Therefore, when the maximum sound is also higher than the first predetermined value, it may be predicted that the child will wake up within a predetermined time. In other words, the child's wake-up can be predicted using the maximum value of the sound generated in the space.
さらに、睡眠時間「ST」が平均睡眠時間よりも長くなると子どもが起床する可能性が高い。そのため、睡眠時間「ST」が、平均睡眠時間の所定倍(第2所定値)より大きい場は、所定時間内に子どもが起床すると予測するようにしてもよい。つまり、子どもの睡眠時間を利用して、子どもの起床を予測することが出来る。 Furthermore, if the sleep time “ST” is longer than the average sleep time, the child is likely to get up. Therefore, when the sleep time “ST” is larger than a predetermined multiple (second predetermined value) of the average sleep time, the child may be predicted to wake up within the predetermined time. In other words, the child's sleep time can be used to predict the child's wake-up.
また、その他の実施例では、距離画像センサ12の奥行情報に基づいて、子どもの寝返りを検出してもよい。そして、環境データには、寝返りの回数が含まれるようにしてもよい。さらに、環境データには、空間の雑音の平均、寝る前の子どもの運動量(運動時間)が含まれてもよい。そして、子どもの起床を予測するときに、寝返りの回数、空間の雑音の平均および寝る前の子どもの運動量がさらに利用されてもよい。
In other embodiments, the child's turning may be detected based on the depth information of the
また、起床を予測するための閾値は、保育者によって任意に設定されてもよいし、中央制御装置24によって自動的に設定されてもよい。
Moreover, the threshold value for predicting wake-up may be arbitrarily set by the childcare worker, or may be automatically set by the
また、携帯端末22に送信されるメッセージは、Eメールによって送信されてよいし、専用のソフトウェアを利用して送信されてもよい。また、メッセージを送信する先は、携帯端末22だけに限らずPCなどの端末などに送信されてもよい。また、文字によるメッセージに代えて、起床が予測された時間から第2時間前までの状況を伝える映像や音声が、携帯端末22に送信されてもよい。
The message transmitted to the
また、さらにその他の実施例では、ロボット10は、アクティブ状態に遷移した後、子どもの起床を判断せずにコンテンツを出力してもよい。
In still another embodiment, the
また、他の実施例では、ロボット10は常にアクティブ状態にされていてもよい。この場合、中央制御装置80は、ステップS41の処理では、子どもの起床が予測されたことをロボット10に通知する。
In another embodiment, the
また、上述の実施例では、閾値に対して「より大きい」の言葉を用いたが「閾値より大きい」とは「閾値以上」の意味も含まれる。また、「閾値よりも小さい」とは「閾値以下」および「閾値未満」の意味も含まれる。 In the above-described embodiment, the word “greater than” is used for the threshold value, but “greater than the threshold value” includes the meaning of “greater than or equal to the threshold value”. Further, “smaller than a threshold” includes the meanings of “below the threshold” and “below the threshold”.
また、本実施例で説明した複数のプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して本実施例と同等の構成のシステムに配信されてもよい。また、CD, DVD, BD (Blu-ray(登録商標) Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体にこれらのプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、上記複数のプログラムが、本実施例と同等の構成のシステムに適用された場合、本実施例と同等の効果が得られる。 In addition, the plurality of programs described in the present embodiment may be stored in the HDD of a data distribution server and distributed to a system having the same configuration as that of the present embodiment via a network. In addition, storage programs such as CDs, DVDs, and BDs (Blu-ray (registered trademark) Disc) are sold or distributed with these programs stored in storage media such as USB memory and memory card. May be. When the plurality of programs downloaded through the server and storage medium described above are applied to a system having the same configuration as that of this embodiment, the same effect as that of this embodiment can be obtained.
そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。 The specific numerical values given in this specification are merely examples, and can be appropriately changed according to a change in product specifications.
10 …ロボット
12 …距離画像センサ
14 …マイク
16 …温度センサ
18 …湿度センサ
20 …照度センサ
22 …携帯端末
24 …中央制御装置
30 …スピーカ
32 …カメラ
36 …プロセッサ
38 …メモリ
64 …マイク
80 …プロセッサ
82 …メモリ
100 …起床通知システム
1000 …ネットワーク
DESCRIPTION OF
Claims (8)
前記起床因子によって子どもが起床するかを予測する予測手段、および
前記子どもが起床すると予測されたとき、予測結果を通知する通知手段を備える、起床通知システム。 An acquisition means for acquiring a wake-up factor;
A wake-up notification system comprising: prediction means for predicting whether a child will wake up by the wake-up factor; and notification means for notifying a prediction result when the child is predicted to wake up.
前記予測手段は、前記最大値を利用して、前記子どもが起床するかを予測する、請求項1記載の起床通知システム。 The wake-up factor includes a maximum value of a sound volume generated in the space where the child is present,
The wake-up notification system according to claim 1, wherein the prediction means predicts whether the child wakes up using the maximum value.
前記予測手段は、前記睡眠時間を利用して、前記子どもが起床するかを予測する、請求項1または2記載の起床通知システム。 The wake-up factor includes sleep time of the child,
The wake-up notification system according to claim 1, wherein the prediction unit predicts whether the child wakes up using the sleep time.
前記子どもが起床すると予測されたとき、前記ロボットがコンテンツを出力する、請求項1ないし3のいずれかに記載の起床通知システム。 A robot that outputs content;
The wakeup notification system according to any one of claims 1 to 3, wherein the robot outputs content when the child is predicted to wake up.
前記子どもが起床したと判断されたとき、前記ロボットがコンテンツを出力する、請求項4記載の起床通知システム。 A judgment means for judging whether the child has woken up;
The wake-up notification system according to claim 4, wherein when it is determined that the child has woken up, the robot outputs content.
起床因子を取得する取得手段、
前記起床因子によって子どもが起床するかを予測する予測手段、および
前記子どもが起床すると予測されたとき、予測結果を通知する通知手段として機能させる、起床予測プログラム。 Wake up notification system processor,
An acquisition means for acquiring a wake-up factor;
A prediction unit that predicts whether a child will wake up by the wake-up factor, and a wake-up prediction program that functions as a notification unit that notifies a prediction result when the child is predicted to wake up.
起床因子を取得する取得ステップ、
前記起床因子によって子どもが起床するかを予測する予測ステップ、および
前記子どもが起床すると予測されたとき、予測結果を通知する通知ステップを実行する、起床予測方法。 The wake-up notification system processor
An obtaining step for obtaining a wake-up factor;
A prediction method for predicting whether or not a child wakes up by the wake-up factor, and a notification step of notifying a prediction result when the child is predicted to wake up.
前記起床因子によって子どもが起床するかを予測する予測手段、および
前記子どもが起床すると予測されたとき、予測結果を通知する通知手段を備える、起床通知装置。 An acquisition means for acquiring a wake-up factor;
A wake-up notification device comprising: prediction means for predicting whether a child wakes up by the wake-up factor; and notification means for notifying a prediction result when the child is predicted to wake up.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014004014A JP6459172B2 (en) | 2014-01-14 | 2014-01-14 | Wakeup notification system, wakeup notification program, wakeup notification method, and wakeup notification device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014004014A JP6459172B2 (en) | 2014-01-14 | 2014-01-14 | Wakeup notification system, wakeup notification program, wakeup notification method, and wakeup notification device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015133608A true JP2015133608A (en) | 2015-07-23 |
JP6459172B2 JP6459172B2 (en) | 2019-01-30 |
Family
ID=53900524
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014004014A Active JP6459172B2 (en) | 2014-01-14 | 2014-01-14 | Wakeup notification system, wakeup notification program, wakeup notification method, and wakeup notification device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6459172B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101740285B1 (en) | 2015-11-16 | 2017-05-26 | 이성용 | The smart furniture |
JP2018013929A (en) * | 2016-07-20 | 2018-01-25 | 株式会社ガイア・システム・ソリューション | Wake-up monitoring device |
JP6382433B1 (en) * | 2017-11-30 | 2018-08-29 | ユニファ株式会社 | Childcare management system, server device, childcare management program, and childcare management method |
JP2021518797A (en) * | 2018-03-23 | 2021-08-05 | 曹可瀚 | Bedding and how to adjust it |
JPWO2021200044A1 (en) * | 2020-03-31 | 2021-10-07 | ||
CN113524218A (en) * | 2021-07-26 | 2021-10-22 | 浙江齐步智能科技有限公司 | Facial expression-based alarm system of elderly accompanying robot |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3004376U (en) * | 1994-05-18 | 1994-11-15 | 株式会社堀場製作所 | Awakening detection device for infants |
JP2005186197A (en) * | 2003-12-25 | 2005-07-14 | Victor Co Of Japan Ltd | Network robot |
JP2006127057A (en) * | 2004-10-27 | 2006-05-18 | Canon Inc | Estimation device and its control method |
JP2006302173A (en) * | 2005-04-25 | 2006-11-02 | Aruze Corp | Infant monitoring device |
JP2009240661A (en) * | 2008-03-31 | 2009-10-22 | Toyota Motor Corp | Health care network system |
JP2012249259A (en) * | 2011-05-31 | 2012-12-13 | Sanyo Electric Co Ltd | Room monitoring system, and telephone device |
-
2014
- 2014-01-14 JP JP2014004014A patent/JP6459172B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3004376U (en) * | 1994-05-18 | 1994-11-15 | 株式会社堀場製作所 | Awakening detection device for infants |
JP2005186197A (en) * | 2003-12-25 | 2005-07-14 | Victor Co Of Japan Ltd | Network robot |
JP2006127057A (en) * | 2004-10-27 | 2006-05-18 | Canon Inc | Estimation device and its control method |
JP2006302173A (en) * | 2005-04-25 | 2006-11-02 | Aruze Corp | Infant monitoring device |
JP2009240661A (en) * | 2008-03-31 | 2009-10-22 | Toyota Motor Corp | Health care network system |
JP2012249259A (en) * | 2011-05-31 | 2012-12-13 | Sanyo Electric Co Ltd | Room monitoring system, and telephone device |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101740285B1 (en) | 2015-11-16 | 2017-05-26 | 이성용 | The smart furniture |
JP2018013929A (en) * | 2016-07-20 | 2018-01-25 | 株式会社ガイア・システム・ソリューション | Wake-up monitoring device |
JP6382433B1 (en) * | 2017-11-30 | 2018-08-29 | ユニファ株式会社 | Childcare management system, server device, childcare management program, and childcare management method |
JP2019101642A (en) * | 2017-11-30 | 2019-06-24 | ユニファ株式会社 | Child-care management system, server device, child-care management program, and child-care management method |
JP2021518797A (en) * | 2018-03-23 | 2021-08-05 | 曹可瀚 | Bedding and how to adjust it |
JPWO2021200044A1 (en) * | 2020-03-31 | 2021-10-07 | ||
WO2021200044A1 (en) * | 2020-03-31 | 2021-10-07 | インフィック株式会社 | Bed-leaving prediction notification device and program |
JP7406737B2 (en) | 2020-03-31 | 2023-12-28 | インフィック株式会社 | Bed leaving prediction notification device and program |
CN113524218A (en) * | 2021-07-26 | 2021-10-22 | 浙江齐步智能科技有限公司 | Facial expression-based alarm system of elderly accompanying robot |
CN113524218B (en) * | 2021-07-26 | 2022-11-22 | 深圳万普瑞邦技术有限公司 | Facial expression-based alarm system of elderly accompanying robot |
Also Published As
Publication number | Publication date |
---|---|
JP6459172B2 (en) | 2019-01-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6459172B2 (en) | Wakeup notification system, wakeup notification program, wakeup notification method, and wakeup notification device | |
EP3041200B1 (en) | Wristband-type information processing device, information processing system, information processing method, and program | |
CN107643921A (en) | For activating the equipment, method and computer-readable recording medium of voice assistant | |
TWI468003B (en) | Event notification method, portable device with event notification function, and computer program product for event notification | |
KR20190141739A (en) | Low-power ambient computing system with machine learning | |
WO2012144396A1 (en) | Information processing device, information processing method, and program | |
JP6093124B2 (en) | Supervisory system | |
CN106716468A (en) | Providing notifications based on user activity data | |
JP2017010516A (en) | Method, apparatus, and terminal device for human-computer interaction based on artificial intelligence | |
JP2006127057A (en) | Estimation device and its control method | |
CN103217892A (en) | Alarm clock system based on robot and using method of alarm clock system | |
JP6402718B2 (en) | Information processing apparatus, control method, and program | |
US10576632B2 (en) | Standby mode of a humanoid robot | |
TWI795663B (en) | personal assistant control system | |
JPWO2017179094A1 (en) | Sleeping state detection system, sleeping state detection device, and sleeping state detection program | |
JP6281164B2 (en) | Play action recognition system, play action recognition program, play action recognition method, and play action recognition apparatus | |
JP2006302173A (en) | Infant monitoring device | |
JP6347347B2 (en) | Notification system, notification program, notification method, and notification device | |
KR102150623B1 (en) | Method and system for analyzing baby behavior | |
TWI624738B (en) | System and method of detecting intelligent alarm clock | |
He et al. | An elderly care system based on multiple information fusion | |
CN106779575A (en) | A kind of intelligent reminding system and method based on smart machine | |
JP6340626B2 (en) | Notification system, notification program, notification method, and notification device | |
JP2015136386A (en) | Excretion management system, excretion management program, excretion management method and excretion management device | |
TW201724084A (en) | System and method for interpreting baby language |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171110 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180605 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180726 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181204 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6459172 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |