JP2015122004A - 保育行動認識システム、保育行動認識プログラム、保育行動認識方法および保育行動認識装置 - Google Patents

保育行動認識システム、保育行動認識プログラム、保育行動認識方法および保育行動認識装置 Download PDF

Info

Publication number
JP2015122004A
JP2015122004A JP2013266287A JP2013266287A JP2015122004A JP 2015122004 A JP2015122004 A JP 2015122004A JP 2013266287 A JP2013266287 A JP 2013266287A JP 2013266287 A JP2013266287 A JP 2013266287A JP 2015122004 A JP2015122004 A JP 2015122004A
Authority
JP
Japan
Prior art keywords
childcare
person
acceleration
behavior
posture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013266287A
Other languages
English (en)
Inventor
昌裕 塩見
Masahiro Shiomi
昌裕 塩見
敬宏 宮下
Takahiro Miyashita
敬宏 宮下
萩田 紀博
Norihiro Hagita
紀博 萩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2013266287A priority Critical patent/JP2015122004A/ja
Publication of JP2015122004A publication Critical patent/JP2015122004A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【解決手段】保育行動認識システム100は、保育者によって所持され、保育者の加速度を出力する携帯端末10および天井に設けられた複数の距離画像センサ12a、12bなどを含む。空間には子どもおよび保育者がおり、子どもと保育者との位置および姿勢は、距離画像センサ12a、12bから出力される奥行情報から得ることが出来る。そして、保育行動認識システムの中央制御装置16は、保育者の加速度と、保育者の位置および姿勢と、子どもの位置および姿勢とを利用して、保育者の保育行動を認識する。そして、認識された保育行動は、データベースに記憶される。【効果】保育者はデータベースを参照することで自身の保育行動を確認することが出来るため、自身の保育日誌などの書類を作成に役立てることが出来る。したがって、保育者が日常的に行う業務の負担が軽減される。【選択図】図2

Description

この発明は、保育行動認識システム、保育行動認識プログラム、保育行動認識方法および保育行動認識装置に関し、特にたとえば、子どもを保育する保育者に対して利用される、保育行動認識システム、保育行動認識プログラム、保育行動認識方法および保育行動認識装置に関する。
背景技術の一例が特許文献1に開示されている。この特許文献1の子供確認監視システムでは、保育園の中には発信機が装着された子供と子供を捜査・補足する複数のセンサとが存在している。センサはカメラの機能を有しており、発信機の位置を捜査・補足することで子供をカメラで捉え、子供の状態を示す動画像を生成することが出来る。そして、或る子供の状態を示す動画像が要求されると、ターゲットとなる子供が捜査され、その子どもに最も隣接するセンサにより撮影された動画像が配信される。
特開2002-26904号公報[H04L 12/18, H04L 12/28, H04N 7/173, H04N 7/18]
ところが、特許文献1の子供確認監視システムでは、子供を対象としたシステムであるため、保育士などの保育者の行動については確認することが出来ない。また、子供に代えて保育者の行動が撮影されるように仕様を変更したとしても、保育者の行動を確認するためには、配信された動画像を全て見なければならず、確認する者の負担が大きい。また、保育者の動画像の一部を確認しただけでは、保育者がどのような行動をしていたかを適切に把握しにくい。
それゆえに、この発明の主たる目的は、新規な、保育行動認識システム、保育行動認識プログラム、保育行動認識方法および保育行動認識装置を提供することである。
この発明の他の目的は、保育者の業務の負担を軽減することが出来る、保育行動認識システム、保育行動認識プログラム、保育行動認識方法および保育行動認識装置を提供することである。
この発明は、上記の課題を解決するために、以下の構成を採用した。なお、括弧内の参照符号および補足説明等は、この発明の理解を助けるために記述する実施形態との対応関係を示したものであって、この発明を何ら限定するものではない。
第1の発明は、空間内の保育者の加速度を出力する出力手段、出力手段が出力する加速度を取得する第1取得手段、空間内の子どもの位置および姿勢を取得する第2取得手段、保育者の位置および姿勢を取得する第3取得手段、および保育者の加速度ならびに位置および姿勢と、子どもの位置および姿勢とに基づいて、保育者の保育行動を認識する認識手段を備える、保育行動認識システムである。
第1の発明では、保育行動認識システム(100:実施例において対応する部分を例示する参照符号。以下、同じ。)が利用される空間内には保育者および子どもが居る。出力手段(10)は、空間内内を動く保育者の加速度を計測して出力する。第1取得手段(80,S5)は、出力された保育者の加速度を取得する。第2取得手段(80,S33)は、距離画像センサ(12)から得らえる奥行情報を利用して、空間内の子どもの位置および姿勢を取得する。同様に、第3取得手段(80,S35)は保育者の位置および姿勢を取得する。そして、認識手段(80,S37)は、保育者の加速度ならびに位置および姿勢と、子どもの位置および姿勢とに基づいて保育者が行った保育行動を認識する。
第1の発明によれば、保育者は認識された自身の保育行動を確認することで、保育日誌などの書類を作成に役立てることが出来る。したがって、保育者が日常的に行う業務の負担が軽減される。
また、保育者の管理者(園長など)は、保育者の保育行動を容易に把握することが出来るため、認識された保育行動を保育者の指導等に役立てることが出来る。
第2の発明は、第1の発明に従属し、出力手段は、保育者によって所持され、加速度センサを有する携帯端末を含む。
第2の発明では、携帯端末は加速度センサを有する。また、保育者は、携帯端末を装着したりポケットに入れたりする。
第2の発明によれば、保育者は加速度センサを有する携帯端末を所持すればよいので、保育行動認識システムを導入する際の保育者への負担が軽減される。
第3の発明は、第1の発明または第2の発明に従属し、第1取得手段、第2取得手段および第3取得手段は、第1時間毎に保育者の加速度と、保育者の位置および姿勢と、子どもの位置および姿勢とを取得し、認識手段は、第1時間よりも長い第2時間毎に保育者の保育行動を認識する。
第3の発明では、保育者の加速度と、保育者の位置および姿勢と、子どもの位置および姿勢とは、第1時間毎に取得される。そして、第1時間よりも長い第2時間毎に、保育者の保育行動が認識される。
第3の発明によれば、保育行動を認識するために必要なデータが取得されてから保育行動が認識される。これにより、保育行動を正確に認識することが出来る。
第4の発明は、空間内の保育者の加速度を出力する出力手段(10)を有する、保育行動認識システム(100)のプロセッサ(80)を、出力手段が出力する加速度を取得する第1取得手段(S5)、空間内の子どもの位置および姿勢を取得する第2取得手段(S33)、保育者の位置および姿勢を取得する第3取得手段(S35)、および保育者の加速度ならびに位置および姿勢と、子どもの位置および姿勢とに基づいて、保育者の保育行動を認識する認識手段(S37)として機能させる、保育行動認識プログラムである。
第4の発明でも、第1の発明と同様、保育者が日常的に行う業務の負担が軽減される。
第5の発明は、空間内の保育者の加速度を出力する出力手段(10)を有する、保育行動認識システム(100)のプロセッサ(80)が、出力手段が出力する加速度を取得する第1取得ステップ(S5)、空間内の子どもの位置および姿勢を取得する第2取得ステップ(S33)、保育者の位置および姿勢を取得する第3取得ステップ(S35)、および保育者の加速度ならびに位置および姿勢と、子どもの位置および姿勢とに基づいて、保育者の保育行動を認識する認識ステップ(S37)を実行する、保育行動認識方法である。
第5の発明でも、第1の発明と同様、保育者が日常的に行う業務の負担が軽減される。
第6の発明は、空間内の保育者によって所持される出力手段(10)が出力する加速度を取得する第1取得手段(80,S5)、空間内の子どもの位置および姿勢を取得する第2取得手段(80,S33)、保育者の位置および姿勢を取得する第3取得手段(80,S35)、および保育者の加速度ならびに位置および姿勢と、子どもの位置および姿勢とに基づいて、保育者の保育行動を認識する認識手段(80,S37)を備える、保育行動認識装置である。
第6の発明でも、第1の発明と同様、保育者が日常的に行う業務の負担が軽減される。
この発明によれば、保育者の業務の負担を軽減することが出来る。
この発明の上述の目的、その他の目的、特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
図1はこの発明の一実施例の保育行動認識システムの概要を示す図解図である。 図2は図1に示す保育行動認識システムの構成の一例を示す図解図である。 図3は図2に示す携帯端末を所持する保育者の一例を示す図解図である。 図4は図1に示す携帯端末の電気的な構成の一例を示すブロック図である。 図5は図1に示す距離画像センサの電気的な構成の一例を示すブロック図である。 図6は図2に示す中央制御装置の電気的な構成の一例を示すブロック図である。 図7は図6に示す中央制御装置のメモリに記憶される環境データテーブルの構成の一例を示す図解図である。 図8は図6に示す中央制御装置によって認識される保育行動の一覧を示す図解図である。 図9は図8に示す保育行動が行われたときの加速度の平均の変化の一例を示す図解図である。 図10は図6に示す保育行動DBの構成の一例を示す図解図である。 図11は図6に示す中央制御装置のメモリのメモリマップの一例を示す図解図である。 図12は図6に示す中央制御装置のプロセッサの取得処理の一例を示すフロー図である。 図13は図6に示す中央制御装置のプロセッサの保育行動認識処理の一例を示すフロー図である。
図1を参照して、この実施例の保育行動認識システム100は、子どもが保育されている保育園などの空間(環境)で利用される。保育園内では、子どもが自由に移動して遊ぶことが可能であり、保育士などの保育者が子どもを保育している。保育者は携帯端末10を所持している。保育園内の天井には複数の距離画像センサ12(12a,12b,…)が設けられ、壁には複数のマイク14(14a,14b,…)が設けられている。
携帯端末10は出力手段とも呼ばれ、保育行動を行う保育者の加速度を出力するために、複数の加速度センサ34(図3および図4参照)などを有している。複数の距離画像センサ12は、保育者の位置および姿勢と、子どもの位置および姿勢とを検出することを目的として、保育園内の天井に設けられている。複数のマイク14は、保育園内の雑音、特に床周辺の音の音量を計測することを目的として、保育園内の壁に設けられている。
そして、保育行動認識システム100は、携帯端末10、各距離画像センサ12および各マイク14を利用して、保育者の保育行動を認識する。
なお、実施例の空間は保育者と子どもとが居る保育園であるが、これに限らず幼稚園、学童保育所などでも保育行動認識システム100は利用可能である。
また、図1では簡単のため、子どもは2人しか示していないが、保育園内にはさらに多くの子どもが保育されていてもよいし、保育される子どもが1でもよい。同様に、マイク14も2つしか示していないが、さらに多くのマイク14が保育園内に置かれてもよいし、マイク14が1つであってもよい。そして、保育者は1人しか示していないが、保育園内には2人以上の保育者が居てもよい。
また、距離画像センサ12a,12b,…を区別する必要がない場合、単に「距離画像センサ12」と言う。そして、マイク14a,14b,…を区別する必要が無い場合、単に「マイク14」と言う。
図2を参照して、保育行動認識システム100の中央制御装置16は、保育行動認識装置とも呼ばれ、距離画像センサ12およびマイク14などが接続される。また、中央制御装置16は、ネットワーク1000を介して携帯端末10と無線通信を行う。中央制御装置16は、第1時間(たとえば、0.05秒)毎に、距離画像センサ12およびマイク14が出力するセンサ情報を取得すると共に、携帯端末10が出力する加速度センサ34の加速度情報も取得する。そして、中央制御装置16は、取得した各センサの情報から、保育者の加速度ならびに位置および姿勢と、子どもの位置および姿勢と、保育園内の音の音量とを含む環境データ(図7参照)をテーブルに記憶する。
また、保育園の中で位置が検出された子どもには、子どもID(以下、C−ID)が付与される。また、保育園内の子どもは、専用のタグ、登園の順番(空間に入る順番)および出欠確認を行うときの位置などを利用して識別され、それぞれの子どもに対して専用のC−IDが付与される。
同様に、保育園の中で検出された保育者には、保育者ID(以下、N−ID)が付与される。また、保育者は、勤怠記録を付けるときの位置や、専用のタグなどを利用して識別され、専用のN−IDが付与される。
図3は携帯端末10を所持する保育者の状態の一例を示す図解図である。図3を参照して、実施例では、保育者は携帯端末10を所持するために、腰部(ベルト部分)の背面に装着している。また、携帯端末10が有する複数の加速度センサ34の内、第1加速度センサ34aは保育者の右上腕部に取り付けられ、第2加速度センサ34bは保育者の左上腕部に取り付けられ、第3加速度センサ34cは保育者の腰部の表面に取り付けられる。第1加速度センサ34a−第3加速度センサ34は、シールなどを利用して保育者の服に張り付けられ、配線(図示せず)によって携帯端末10に接続されている。
なお、他の実施例では、保育者は、携帯端末10を服のポケットなどに入れるなどして所持してもよい。また、加速度センサ34の数は1つないし2つであってもよいし、4つ以上であってもよい。特に、携帯端末10が4つ以上の加速度センサを有する場合、頭部や胸部に加速度センサが張り付けられる。
図4は携帯端末10の電気的な構成を示すブロック図である。図4を参照して、携帯端末10はプロセッサ30などを含む。プロセッサ30は、マイクロコンピュータ或いはCPUと呼ばれることもある。プロセッサ30には、メモリ32、第1加速度センサ34a−第3加速度センサ34cおよび無線LANモジュール36などが接続される。
プロセッサ30は、携帯端末10の全体を制御する。メモリ32はROMおよびRAMを含む。ROMには、回路の動作を制御するための制御プログラムが予め記憶される。また、RAMはプロセッサ30のワークメモリやバッファメモリとして用いられる。たとえば、RAMのバッファには、後述する音声情報および加速度情報が一時的に記憶される。
第1加速度センサ34a−第3加速度センサ34cは、それぞれがセンサに対してある方向にどの程度の加速度がかかっているかを検知するものであり、たとえば、一度に3つの軸方向の加速度を検知することができる3軸の加速度センサである。この3つの加速度センサ34によれば、たとえば子どもに対して保育行動を行っているときに、保育者がどのような動きをしているかを検出することが出来る。
無線LANモジュール36は、プロセッサ30から与えられた送信データを、ネットワーク1000を介して中央制御装置16に送信する。たとえば、送信データは、3つの加速度センサ34のそれぞれによって検出された保育者の加速度情報などである。
図5は距離画像センサ12の電気的な構成を示すブロック図である。図5を参照して、距離画像センサ12は制御IC60などを含む。制御IC60には、A/D変換器62、カメラ66、深度センサ68、深度カメラ70およびI/O72などが接続される。
制御IC60は、キャッシュメモリなどを有し、距離画像センサ12の動作を制御する。たとえば、制御IC60は、中央制御装置16からの命令に従って動作し、検出した結果を中央制御装置16に送信する。
A/D変換機62にはマイク64が接続され、マイク64からの音声信号はA/D変換機62でディジタル音声情報に変換され、制御IC60に入力される。また、マイク64によって集音された音声は、マイク14によって集音された音声と共に、保育園内の雑音の音量を計測するために利用される。
カメラ66は、距離画像センサ12が設置された空間のRGB情報、つまりカラー画像を撮影するためのカメラである。また、カメラ66は、後述する深度カメラ70が撮影している空間と略同じ空間を撮影することが可能なように、距離画像センサ12に設けられている。
深度センサ68は、たとえば赤外線プロジェクタであり、深度カメラ70は、たとえば赤外線カメラである。深度センサ68は、たとえば赤外線によるレーザ光を距離画像センサ12の正面に照射する。空間には照射されたレーザ光によって特殊なパターンが描画され、深度カメラ70は描画されたパターンを撮影する。そして、撮影された画像は制御IC60に入力され、制御IC60はその画像を解析することで、レーザ光が照射された空間の奥行(depth)情報を計測する。
I/O72は、入力/出力の制御が可能なディジタルポートであり、出力ポートからは音声情報、RGB情報および奥行情報が出力され、中央送制御装置16に与えられる。一方、中央制御装置16からは制御信号が出力され、入力ポートに与えられる。
なお、距離画像センサ12は、RGB情報および奥行情報を出力することからRGB−Dセンサと呼ばれることもある。
また、実施例の距離画像センサ12には、Microsoft(登録商標)社製のKinect(登録商標)センサと呼ばれる製品が採用されている。ただし、他の実施例では、ASUS(登録商標)社製のXtion、パナソニック(登録商標)社製の3次元距離画像センサであるD−IMager(登録商標)などが距離画像センサ12として採用されてもよい。
図6は中央制御装置16の電気的な構成を示すブロック図である。図6を参照して、中央制御装置16は、距離画像センサ12およびプロセッサ80などを含む。プロセッサ80は、マイクロコンピュータ或いはCPUと呼ばれることもある。プロセッサ80には、複数の距離画像センサ12、メモリ82、A/D変換機84、出力装置86、入力装置88、保育行動データベース(DB:Database)90および通信LANボード92などが接続される。
距離画像センサ12は、上述したように奥行情報などを出力する。この奥行情報には、空間に居る人(子ども、保育者)の形状および人までの距離が含まれている。たとえば、人が天井に設けられた距離画像センサ12によってセンシングされると、人を上から見た状態の頭部および両肩の形状と、頭部および両肩までの距離が奥行情報として得られる。
また、保育園には35個の距離画像センサ12が所定の位置(既知)に設置されており、プロセッサ80は、各々から奥行情報を取得して、空間(ワールド座標系)における人の位置(たとえば、重心など特徴点の位置座標(x,y))および人の姿勢(たとえば、頭部の向き(θ)および両肩の向き(θ))を計算することが出来る。
また、距離画像センサ12はマイク64を有するため、中央制御装置16では、音声情報が入力される距離画像センサ12の位置から、音の発生源を推定することも出来る。
なお、他の実施例では、距離画像センサ12ではなく、2次元または3次元のLRFを利用して、人の位置および姿勢が検出されてもよい。
プロセッサ80は中央制御装置16の動作を制御し、日時情報を出力するRTCを含む。メモリ82は、ROM,HDDおよびRAMを含む。ROMおよびHDDには、中央制御装置16の動作を制御するための制御プログラムなどが予め記憶される。また、RAMは、プロセッサ80のワークメモリやバッファメモリとして用いられる。
A/D変換機84には、複数のマイク14a,14bが接続される。各マイク14からの音声信号はA/D変換機84でディジタル音声情報に変換され、プロセッサ80に入力される。そして、マイク14によって集音された音声は、マイク64によって集音された音声と共に、保育園内の雑音の音量を計測するために利用される。なお、他の実施例では、各マイク14がそれぞれ独立して、プロセッサ80に接続されてもよい。この場合、プロセッサ80は、音声情報が入力されるマイク14を特定することが可能となる。
出力装置86は、たとえばディスプレイなどであり、入力装置88は、たとえばマウスやキーボードである。そして、保育者や、保育園の管理人(たとえば、園長)は、このシステムによって認識された結果を、出力装置86および入力装置88を利用して確認および利用することが出来る。保育行動DB90には、保育者の認識された保育行動が時系列順に記憶される。
通信LANボード92は、たとえばDSPで構成され、プロセッサ80から与えられた送信データを無線通信装置94に与え、無線通信装置94は送信データを、ネットワーク1000を介して他の装置に送信する。また、通信LANボード92は、無線通信装置94を介してデータを受信し、受信したデータをプロセッサ80に与える。
図7は環境データテーブルの構成の一例を示す図解図である。環境データとは、ある日時における各子どもの位置および姿勢と、保育者の位置および姿勢と、携帯端末10が出力する加速度の分析結果と、各距離画像センサ12および各マイク14によって取得された音声の音量とを含むデータである。そして、環境データテーブルには、1行毎にこれらの情報を含む環境データが記憶される。図7を参照して、環境データテーブルは日時、子ども、保育者、携帯端末およびマイクの列を含む。子どもの列には、保育園の中にいる子どもと対応するC−ID(「001」、「002」、…)の列が含まれる。保育者の列には、保育園の中にいる保育者と対応するN−ID(「001」)の列が含まれる。携帯端末の列には、加速度、分散および波形数の列が含まれる。
日時の列には、環境データが取得された日時が記憶される。また、記憶される日時の形式としては、「yy」が「年」を示し、「mm」が「月」を示し、「dd」が「日」を示し、「H」が「時」を示し、「M」が「分」を示し、「S」が「秒」を示す。
子どもの列におけるC−IDの列には、たとえば「C−ID:001」と対応する子どもの位置として「X,Y」が記憶され、姿勢として「θH1(頭の向き)」および「θB1(体の向き)」が記憶される。同様に、保育者の列におけるN−IDの列には、たとえば「N−ID:001」と対応する保育者の位置として、「X,Y」が記憶され、姿勢として「θH3(頭の向き)」および「θB3(体の向き)」が記憶される。たとえば、子どもおよび保育者の位置および姿勢から、子ども同士が一緒に遊んでいるかどうか、保育者と子どもとの位置関係などを判別することが可能となる。なお、ここではN−IDが1つだけしか示されていないが、より多くの保育者が保育園内に居る場合は、保育者の列には、各保育者のN−IDと対応する列が含まれることになる。
携帯端末の列における加速度の列には、携帯端末10が有する3つの加速度センサ34から出力される複数の加速度の平均値として「Aa」が記憶される。携帯端末の列における分散の列には、3つの加速度センサ34から出力される加速度の分散として「σ」が記憶される。携帯端末の列における波形数の列には、3つの加速度センサ34の値を二次元平面上に配置して繋ぐことによって描かれる波形が、加速度の平均(「Aa」)によって定義される直線を跨いだ回数が「波形数」として記憶される。そして、携帯端末10におけるこれらの情報から、保育行動を行う保育者がどのような動きをしていたかを判断することが出来る。なお、携帯端末10が有する加速度センサ34が1つの場合は、加速度の平均は1つの加速度センサ34から出力された値となり、分散および波形数は「0」とされる。また、複数の保育者が居る場合は、各保育者が所持する携帯端末の列がテーブルに追加される。
マイクの列には、各距離画像センサ12および各マイク14から取得される音声の音量の平均として「AB」が記憶される。ここで、「AB」は保育園内の雑音の音量の平均を示すことになる。たとえば、子どもの遊び行動においては、遊び行動によって空間内の雑音の音量が変化する。そのため、各マイクの音声の音量を利用することで、各遊び行動を判別するための要素として利用できる。なお、音量の平均である「AB」の単位は「dB」である。
そして、中央制御装置16は、環境データテーブルに対して、第1時間毎にこのような環境データを記憶する。なお、子どもの位置および姿勢と各マイクの音量の平均とは、保育者の周囲の状態を示す情報であるため、まとめて周辺情報と呼ばれることがある。また、保育者の位置および姿勢と、加速度の平均、分散および波形数とは、保育者自身の情報を示す情報であるため、まとめて保育者情報と呼ばれることがある。
図8は保育行動の具体的な内容を示す図解図である。図8を参照して、実施例の保育行動には、「抱っこしている」、「なだめている」、「食事をさせている」、「おむつを交換している」、「一緒に遊んでいる」、「休憩」および「事務処理」などが含まれる。
図9は保育行動が行われている状態と行われていない状態とにおける、3つの加速度センサ34が出力する加速度の平均の変化を示す図解図である。保育者が「抱っこしている」の保育行動を行っている状態では、加速度の平均は1000msecが経過するまでは緩やかに変化し、1000−2000msecの間は激しく変化している。一方、保育行動が行われていない(インタラクション無し)の状態では、加速度の平均はほとんど変化していない。このように、保育者が保育行動を行った場合、加速度の平均は特徴的な変化を見せるため、加速度の平均を保育行動の認識に利用することが可能となる。
また、実施例では、或る保育者が保育行動を行ったときの周辺情報および或る保育者の保育者情報を教師データとし、SVM(Support vector machine)などの機械学習手法によって教師データを学習する。その結果、保育行動の判別モデルが作成される。この判別モデルに対して、或る保育行動を行った保育者における、第2時間(たとえば、5秒)分の未知の周辺情報と保育者情報とを入力すると、保育行動とその保育行動が似ている割合を示す尤度とが少なくとも1つ以上得られる。そして、判別モデルは、尤度が最も高い保育行動を認識結果として出力する。
たとえば、保育行動の判別モデルに対して、或る保育行動が行われたときの周辺情報と保育者情報とを未知データとして入力した際に、尤度が80%の「抱っこしている」と尤度が70%の「なだめている」とが得られた場合、この判別モデルは尤度が最も高い「抱っこしている」を、保育行動の認識結果として出力する。
図10は保育行動DB90の構成の一例を示す図解図である。図10を参照して、保育行動DB90は、日付、番号および保育行動の列を含み、認識された保育行動は時系列順に記憶される。たとえば、或る保育者は、2013年3月5日に「抱っこしている」の保育行動が認識された後に、「なだめている」の保育行動が2回認識され、その後に「一緒に遊んでいる」の保育行動が認識される。
なお、保育園内に複数の保育者が居る場合は、図9に示すデータベースが1人の保育者に対応するテーブルとされ、保育行動DB90は各保育者に対応するテーブルを含むことになる。
このように、中央制御装置16では、保育園内の保育者の保育行動が認識され、その認識結果がデータベースに記憶される。たとえば、保育者は、そのデータベースを参照することで自身の保育行動を客観的に確認することが出来るため、保育日誌などの書類を作成に役立てることが出来る。したがって、保育者が日常的に行う業務の負担が軽減される。また、保育園の管理者(園長など)は、保育者の保育行動を容易に把握することが出来るため、保育行動DB90の内容を保育者の指導等に役立てることが出来る。
また、他の実施例では、保育行動DB90の内容に基づいて、保育者の保育日誌などが自動的に作成されるようにしてもよい。
なお、実施例では、保育行動は、環境データを取得するために必要な第1時間よりも長い第2時間毎に認識される。つまり、保育行動を認識するために必要な環境データが取得されてから保育行動が認識される。これにより、保育者の保育行動を正確に認識することが出来る。
上述では実施例の特徴を概説した。以下では、図11に示すメモリマップ、図12および図13に示すフロー図を用いて、実施例について詳細に説明する。
図13は図6に示す中央制御装置16のメモリ82のメモリマップの一例を示す図解図である。図13に示すように、メモリ82はプログラム領域302およびデータ記憶領域304を含む。プログラム記憶領域302には、中央制御装置16を動作させるためのプログラムとして、各センサから情報を取得し、環境テーブルに環境データを記憶するための取得プログラム310および保育行動を認識するための保育行動認識プログラム312などが記憶される。なお、図示は省略するが、中央制御装置16を動作させるためのプログラムには、データベースの内容を確認するためのプログラムなども含まれる。
データ記憶領域304には、環境データテーブル330などが記憶される。環境データテーブル330は、たとえば図7に示す構成のテーブルであり、環境データが記憶される。なお、図示は省略するが、データ記憶領域304には、様々な計算の結果を一時的に格納するバッファや、中央制御装置16の動作に必要な他のカウンタやフラグなども設けられる。
中央制御装置16のプロセッサ80は、Linux(登録商標)ベースのOSや、その他のOSの制御下で、図12に示す取得処理および図13に示す保育行動認識処理などを含む、複数のタスクを処理する。
図12は取得処理のフロー図である。中央制御装置16の電源がオンにされ、取得処理の実行命令が出されると、取得処理が実行される。なお、取得処理の実行命令は、第1時間毎に出される。
取得処理が実行されると、プロセッサ80はステップS1で、現在時刻を取得する。たとえば、プロセッサ80が有するRTCから現在時刻を取得する。続いて、ステップS3でプロセッサ80は、距離画像センサ12の情報を取得する。つまり、プロセッサ80は、距離画像センサ12が出力する奥行情報および音声情報を取得する。
続いて、ステップS5でプロセッサ80は、保育者の加速度情報を取得する。つまり、プロセッサ80は、3つの加速度センサ34のそれぞれによって計測された加速度情報を、携帯端末10から受信する。続いて、ステップS7でプロセッサ80は、マイク14から音声情報を取得する。つまり、プロセッサ80は、マイク14によって集音された音声の音声情報を取得する。なお、ステップS5の処理を実行するプロセッサ80は第1取得手段として機能する。
続いて、ステップS9でプロセッサ80は、各センサの情報から環境データを作成する。つまり、奥行き情報から子どもの位置および姿勢と保育者の位置および姿勢とが計算され、加速度情報から加速度の平均、分散および波形数が計算され、複数のマイク14および距離画像センサ12のマイク64から音声(雑音)の音量の平均が計算される。そして、これらの値が1つの環境データとされる。
続いて、ステップS11でプロセッサ80は、現在時刻および環境データを記憶する。つまり、ステップS1で取得された現在時刻の情報に環境データが関連付けられ、環境データテーブル330に記憶される。
図13は遊び行動認識処理のフロー図である。中央制御装置16の電源がオンにされ、保育行動認識処理の実行命令が出されると、保育行動認識処理が実行される。なお、保育行動認識処理の実行命令は、第2時間毎に出される。
保育行動認識処理が実行されると、ステップS31でプロセッサ80は、変数Niを初期化する。変数Niは、任意のN−IDを指定するための変数である。そして、ステップS31で変数Niの値は「1」とされる。続いて、ステップS33でプロセッサ80は、現在時刻から第2時間分の周辺情報を取得する。具体的には、子どもの位置および姿勢と各マイクの音量の平均とが、環境データテーブル330から読み出される。なお、ステップS33の処理を実行するプロセッサ80は第2取得手段として機能する。
続いて、ステップS35でプロセッサ80は、Ni番目の保育者と対応する、現在時刻から第2時間分の保育者情報を取得する。具体的には、保育者の位置および姿勢と、3つの加速度センサの平均、分散および波形数とが、環境データテーブルから読み出される。続いて、ステップS37でプロセッサ80は、保育行動を認識する。つまり、プロセッサ80は、取得された周辺情報および保育者情報をSVMに入力し、そのSVMによる認識結果を得る。なお、ステップS35の処理を実行するプロセッサ80は第3取得手段として機能する。また、ステップS37の処理を実行するプロセッサ80は認識手段として機能する。
続いて、ステップS39でプロセッサ80は、保育行動をデータベースに記憶する。たとえば、保育行動として「抱っこしている」が認識された場合、保育行動DB90には「抱っこしている」の保育行動が記憶される。
続いて、ステップS41でプロセッサ80は、変数Niをインクリメントする。つまり、次の保育者を指定するために、変数Niの値がインクリメントされる。続いて、ステップS43でプロセッサ80は、変数Niが最大値より大きいか否かを判断する。最大値とは、保育者の総数である。したがって、ステップS43では、全ての保育者の保育行動が認識されたかが判断される。ステップS43で“NO”であれば、つまり全ての保育者の保育行動が認識されていなければ、プロセッサ80はステップS35の処理に戻る。一方、ステップS43で“YES”であれば、全ての保育者の保育行動が認識されると、プロセッサ80は保育行動認識処理を終了する。
なお、他の実施例では、携帯端末10として、加速度センサ34を有するスマートフォン(smartphone)が利用されてもよい。この場合、保育者は加速度センサ34を有するスマートフォンを所持すればよいので、保育行動認識システム100を導入する際の保育者への負担が軽減される。また、市販のものを利用して保育者の加速度を取得することが可能になるため、保育行動認識システム100の構築が容易となる。
また、保育行動の種類は、実施例のものとは異なっていてもよいし、数が異なっていてもよい。
また、実施例では、機械学習手法としてSVMを採用したが、他の実施例では、ニューラルネットワークまたはC4.5などのアルゴリズムが採用されてもよい。
また、その他の実施例では、マイク14および距離画像センサ12のマイク64の音量の平均を使わずに、保育行動が認識されてもよい。
また、さらにその他の実施例では、メモリ82には、空間の地図が記憶されていてもよい。そして、保育者の地図上の位置を考慮して保育行動が認識されるようにしてもよい。
また、本実施例で説明した複数のプログラムは、データ配信用のサーバのHDDに記憶され、ネットワークを介して本実施例と同等の構成のシステムに配信されてもよい。また、CD, DVD, BD (Blu-ray(登録商標) Disc)などの光学ディスク、USBメモリおよびメモリカードなどの記憶媒体にこれらのプログラムを記憶させた状態で、その記憶媒体が販売または配布されてもよい。そして、上記したサーバや記憶媒体などを通じてダウンロードされた、上記複数のプログラムが、本実施例と同等の構成のシステムに適用された場合、本実施例と同等の効果が得られる。
そして、本明細書中で挙げた、具体的な数値は、いずれも単なる一例であり、製品の仕様変更などに応じて適宜変更可能である。
10 …携帯端末
12a,12b …距離画像センサ
14a,14b …マイク
16 …中央制御装置
30 …プロセッサ
34 …加速度センサ
64 …マイク
80 …プロセッサ
82 …メモリ
90 …保育行動DB
100 …保育行動認識システム
1000 …ネットワーク

Claims (6)

  1. 空間内の保育者の加速度を出力する出力手段、
    前記出力手段が出力する加速度を取得する第1取得手段、
    前記空間内の子どもの位置および姿勢を取得する第2取得手段、
    前記保育者の位置および姿勢を取得する第3取得手段、および
    前記保育者の加速度ならびに位置および姿勢と、前記子どもの位置および姿勢とに基づいて、前記保育者の保育行動を認識する認識手段を備える、保育行動認識システム。
  2. 前記出力手段は、前記保育者によって所持され、加速度センサを有する携帯端末を含む、請求項1記載の保育行動認識システム。
  3. 前記第1取得手段、前記第2取得手段および前記第3取得手段は、第1時間毎に前記保育者の加速度と、前記保育者の位置および姿勢と、前記子どもの位置および姿勢とを取得し、
    前記認識手段は、前記第1時間よりも長い第2時間毎に前記保育者の保育行動を認識する、請求項1または2記載の保育行動認識システム。
  4. 空間内の保育者の加速度を出力する出力手段を有する、保育行動認識システムのプロセッサを、
    前記出力手段が出力する加速度を取得する第1取得手段、
    前記空間内の子どもの位置および姿勢を取得する第2取得手段、
    前記保育者の位置および姿勢を取得する第3取得手段、および
    前記保育者の加速度ならびに位置および姿勢と、前記子どもの位置および姿勢とに基づいて、前記保育者の保育行動を認識する認識手段として機能させる、保育行動認識プログラム。
  5. 空間内の保育者の加速度を出力する出力手段を有する、保育行動認識システムのプロセッサが、
    前記出力手段が出力する加速度を取得する第1取得ステップ、
    前記空間内の子どもの位置および姿勢を取得する第2取得ステップ、
    前記保育者の位置および姿勢を取得する第3取得ステップ、および
    前記保育者の加速度ならびに位置および姿勢と、前記子どもの位置および姿勢とに基づいて、前記保育者の保育行動を認識する認識ステップを実行する、保育行動認識方法。
  6. 空間内の保育者によって所持される出力手段が出力する加速度を取得する第1取得手段、
    前記空間内の子どもの位置および姿勢を取得する第2取得手段、
    前記保育者の位置および姿勢を取得する第3取得手段、および
    前記保育者の加速度ならびに位置および姿勢と、前記子どもの位置および姿勢とに基づいて、前記保育者の保育行動を認識する認識手段を備える、保育行動認識装置。
JP2013266287A 2013-12-25 2013-12-25 保育行動認識システム、保育行動認識プログラム、保育行動認識方法および保育行動認識装置 Pending JP2015122004A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013266287A JP2015122004A (ja) 2013-12-25 2013-12-25 保育行動認識システム、保育行動認識プログラム、保育行動認識方法および保育行動認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013266287A JP2015122004A (ja) 2013-12-25 2013-12-25 保育行動認識システム、保育行動認識プログラム、保育行動認識方法および保育行動認識装置

Publications (1)

Publication Number Publication Date
JP2015122004A true JP2015122004A (ja) 2015-07-02

Family

ID=53533549

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013266287A Pending JP2015122004A (ja) 2013-12-25 2013-12-25 保育行動認識システム、保育行動認識プログラム、保育行動認識方法および保育行動認識装置

Country Status (1)

Country Link
JP (1) JP2015122004A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018185800A (ja) * 2017-04-27 2018-11-22 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited 推奨作物のプロトコルに対する順守度を推測するシステムおよび方法
JP7392306B2 (ja) 2019-07-12 2023-12-06 コニカミノルタ株式会社 情報処理システム、情報処理方法、及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149824A (ja) * 2000-11-14 2002-05-24 Matsushita Electric Ind Co Ltd 行動検知システム
JP2002288756A (ja) * 2001-03-28 2002-10-04 Seiko Epson Corp 監視システム
JP2004118431A (ja) * 2002-09-25 2004-04-15 Takiko Murakami 託児所用保育方法及び託児所支援用サーバー
JP2007213219A (ja) * 2006-02-08 2007-08-23 Seiko Instruments Inc 対象者動作判定装置及び対象者動作判定方法ならびにそのプログラム
JP2012168835A (ja) * 2011-02-16 2012-09-06 Casio Comput Co Ltd 行動履歴記録装置、行動履歴記録方法、及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002149824A (ja) * 2000-11-14 2002-05-24 Matsushita Electric Ind Co Ltd 行動検知システム
JP2002288756A (ja) * 2001-03-28 2002-10-04 Seiko Epson Corp 監視システム
JP2004118431A (ja) * 2002-09-25 2004-04-15 Takiko Murakami 託児所用保育方法及び託児所支援用サーバー
JP2007213219A (ja) * 2006-02-08 2007-08-23 Seiko Instruments Inc 対象者動作判定装置及び対象者動作判定方法ならびにそのプログラム
JP2012168835A (ja) * 2011-02-16 2012-09-06 Casio Comput Co Ltd 行動履歴記録装置、行動履歴記録方法、及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
上條俊介: "交通システムとビジョン技術", 画像ラボ, vol. 第24巻,第3号, JPN6017049131, 10 March 2013 (2013-03-10), JP, pages 51 - 59, ISSN: 0003830647 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018185800A (ja) * 2017-04-27 2018-11-22 タタ コンサルタンシー サービシズ リミテッドTATA Consultancy Services Limited 推奨作物のプロトコルに対する順守度を推測するシステムおよび方法
JP7392306B2 (ja) 2019-07-12 2023-12-06 コニカミノルタ株式会社 情報処理システム、情報処理方法、及びプログラム

Similar Documents

Publication Publication Date Title
JP6900575B2 (ja) ゲームプレイを介して環境の詳細データセットを生成する方法およびシステム
KR102141288B1 (ko) 홈 트레이닝 제공 방법 및 시스템
CN106055088B (zh) 交互式穿戴式设备的空气书写和手势系统
CN108475120A (zh) 用混合现实系统的远程设备进行对象运动跟踪的方法及混合现实系统
KR102032662B1 (ko) 장면 공간 모니터링을 통한 사람-컴퓨터 상호 작용
JP6093124B2 (ja) 監督システム
CN106255943A (zh) 身体锁定增强现实与世界锁定增强现实之间的转换
CN107408146A (zh) 监控
US11847822B2 (en) Information processing device and information processing method
JP6281164B2 (ja) 遊び行動認識システム、遊び行動認識プログラム、遊び行動認識方法および遊び行動認識装置
KR20200076169A (ko) 놀이 컨텐츠를 추천하는 전자 장치 및 그의 동작 방법
CN117859077A (zh) 用于生成室内空间的三维地图的系统和方法
Kumar et al. Spatial object tracking system based on linear optical sensor arrays
KR20140055054A (ko) 3차원 디스플레이 장치 및 그의 사용자 인터페이스 방법
US20190298241A1 (en) Information processing method, information processing device, and information processing system
JP2015122004A (ja) 保育行動認識システム、保育行動認識プログラム、保育行動認識方法および保育行動認識装置
JP2016189073A (ja) 個性推定装置、個性推定プログラムおよび個性推定方法
JP6347347B2 (ja) 通知システム、通知プログラム、通知方法および通知装置
JPWO2020153038A1 (ja) 情報処理装置、および情報処理方法
Gandhi et al. A CMUcam5 computer vision based arduino wearable navigation system for the visually impaired
Saha et al. A study on leg posture recognition from Indian classical dance using Kinect sensor
KR20170038461A (ko) 스마트 기기를 기반으로 한 감성 로봇 시스템 및 동작 모드 제어 방법
Gogia et al. Multi-modal affect detection for learning applications
JP6340626B2 (ja) 通知システム、通知プログラム、通知方法および通知装置
Chen Improving the safety of construction site

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171226

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180703