JP5473750B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP5473750B2
JP5473750B2 JP2010100107A JP2010100107A JP5473750B2 JP 5473750 B2 JP5473750 B2 JP 5473750B2 JP 2010100107 A JP2010100107 A JP 2010100107A JP 2010100107 A JP2010100107 A JP 2010100107A JP 5473750 B2 JP5473750 B2 JP 5473750B2
Authority
JP
Japan
Prior art keywords
person
disappearing
behavior
area
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010100107A
Other languages
English (en)
Other versions
JP2011232822A (ja
JP2011232822A5 (ja
Inventor
要 冨手
まほろ 穴吹
敦史 野上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010100107A priority Critical patent/JP5473750B2/ja
Publication of JP2011232822A publication Critical patent/JP2011232822A/ja
Publication of JP2011232822A5 publication Critical patent/JP2011232822A5/ja
Application granted granted Critical
Publication of JP5473750B2 publication Critical patent/JP5473750B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
一般家庭環境等における人物の行動を映像と音声とで記録する。そして、記録された行動群の中から人にとって意味のある行動パターンを自動的に抽出して、それを情報として人に提示したり、IT家電や家事ロボットの制御内容のプランニングに利用したりすることを目指した技術がいくつか知られている。
例えば、一般家庭の各部屋の天井に備え付けたカメラ及びマイクにより住居人の行動を記録し続け、そこで起こる行動へのアノテーションを半自動的につけることを目指した技術が知られている。
また、床に圧力センサ、天井にカメラやマイクを多数設置された家庭内での生活行動を記録し、人のいる位置に基づく記録映像の要約・閲覧や、家具や人同士のインタラクション検出を行う技術も知られている。
更に、ユーザの現状況の変化に応じて将来状況を予測し、その予測に応じて時間を要する情報処理を前もって始めて、そのユーザの行動に先行させて機器の制御を完了させておく技術も知られている。より具体的には、この技術には、ユーザがテレビ番組を見ている際、CMになったらトイレに行く確率が高いので、CMになる前に便座を暖める情報処理を開始しておく、ということが示されている。
しかしながら、知られている多くの事例では、カメラやマイクといったセンサ機器を家全体に数多く設置することを前提としている。そのため、その実現にあたっては機器コストがかかるという問題がある。また、機器の設置コストがかかるという問題もある。
また、カメラを利用する場合、一般家庭環境においてオクルージョンを発生させる事が無いように数多くのカメラを設置して、人物の行動を全て記録することは非常に困難であり、カメラで追跡していた人物が消失してしまうことがしばしば発生する。
即ち、現実には、家庭環境下での全行動を記録しようとしても、それらは部分的に欠損し、細かく分断されたものになる。すると、記録の連続性が利用できないため、人物の行動を記録するための情報処理そのもの(例えば映像からの人物抽出)や、人物行動記録からの行動パターンの抽出が破綻しやすいといった問題が生じる。
こうした問題に対処しうる技術として、家庭環境下での行動を対象にするものではないが、ある一つの行動から時間的・場所的に連続していない未来の行動を予測する技術が、開示されている(特許文献1)。この特許文献1では、「ある行動」とそのあとに続く行動との組合せパターンを使って、「ある行動」の観察に基づくその後の行動予測を行う技術が開示されている。例として、ある人が、朝の決まった時刻に駅の通過した日は、必ずその夕方にビールを購買するという行動パターンがある際には、その人物の朝の駅通過時刻に基づいて、その夕方にはビールを購買するという行動を予測するという例が示されている。
特許第3349033号公報
しかしながら、「ある行動」とそれに続く行動の間には多くの自由度があり、「ある行動」の後には必ず「特定の行動」が起こるというケースは、特に家庭環境下での行動に関して言えば、多くないといえる。
本発明はこのような問題点に鑑みなされたもので、記録できた「ある行動」に関する情報と、その「ある行動」の発現後に得られる情報と、を利用して、再び記録が可能になる「次の行動」を予測することを目的とする。
そこで、本発明の情報処理装置は、撮影手段で撮影された映像から消失した人物の消失中の行動を推定する消失中行動推定手段と、前記消失中行動推定手段で推定された消失中行動に対応する登場時行動予測モデルを、消失中行動ごとの複数の登場時行動予測モデルを保持する登場時行動予測モデル保持手段より取得する取得手段と前記取得手段で取得した登場時行動予測モデルに基づき前記映像から消失した人物が再び映像中に登場するときの行動を予測する登場時行動予測手段と、を有する。
本発明によれば、記録できた「ある行動」に関する情報と、その「ある行動」の発現後に得られる情報と、を利用して、再び記録が可能になる「次の行動」を予測することができる。
第一実施形態に係る映像情報処理装置が対象とする一般家庭の間取り例を示す図である。 第一実施形態に係る映像情報処理装置の構成を示す図である。 第一実施形態に係る映像情報処理装置が対象とする一般家庭に置かれたカメラが撮影するシーンの例を示す図である。 第一実施形態に係る映像情報処理装置が取り扱う「現実空間の部分領域に対応付けられた映像の部分領域(エリア)」の例を示す図である。 第一実施形態に係る映像情報処理装置の処理を示す図である。 第二実施形態に係る映像情報処理装置が対象とする一般家庭の一階間取り例を示す図である。 第二実施形態に係る映像情報処理装置が対象とする一般家庭の二階間取り例を示す図である。 第二実施形態に係る映像情報処理装置の構成を示す図である。 第二実施形態に係る映像情報処理装置が対象とする一般家庭に置かれたカメラが撮影するシーンの例を示す図である。 第二実施形態に係る映像情報処理装置が対象とする一般家庭に置かれたカメラが撮影するシーンの例を示す図である。 第二実施形態に係る映像情報処理装置の処理を示す図である。 第二実施形態に係る映像情報処理装置が取り扱う「現実空間の部分領域に対応付けられた映像の部分領域(エリア)」の例を示す図である。 第二実施形態に係る映像情報処理装置が取り扱う「現実空間の部分領域に対応付けられた映像の部分領域(エリア)」の例を示す図である。 第三実施形態に係る映像情報処理装置が対象とする一般家庭の間取り例を示す図である。 第三実施形態に係る映像情報処理装置が対象とする一般家庭に置かれたカメラが撮影するシーンの例を示す図である。 第三実施形態に係る映像情報処理装置の構成を示す図である。 第三実施形態に係る映像情報処理装置の処理を示す図である。
以下、本発明の実施形態について図面に基づいて説明する。
(概要)
以下に示す実施形態では、映像情報処理装置は、記録できた「ある行動」に関する情報と、その「ある行動」の発現後に得られる情報と、を利用して、再び記録が可能になる「次の行動」を予測する。「次の行動」を予測可能にすることによって、部分的に欠損し細かく分断された行動記録しかできない環境下において、行動記録の非連続性に起因する情報処理の破綻を解決することできる。
即ち以下に示す実施形態では、より少ないセンサ数(究極的にはカメラ一台だけ)で、一般家庭環境下における人物の行動を記録する環境において、人物がカメラの視野外に消失している間、映像情報処理装置は、消失前の情報を利用してその間の行動を推定する。このことで、人物が再度、カメラの前に登場した時の行動追跡等の情報処理精度を向上させることを目指す。
より具体的には、映像情報処理装置は、カメラ映像に映る範囲での行動は従来例と同様に映像として記録すると共に、カメラ映像に映らない範囲での行動は、対象人物が存在する場所を特定した上で定性的に推定し、それをデータとして記録する。映像情報処理装置は、人物存在場所の特定を、カメラ映像において人が消失若しくは登場したエリアに基づいて特定する。この技術を適用する場所が広大ではない一般家庭であれば、消失後若しくは登場前に人が存在しうる場所は限定的であるので、家の中心にあることの多い居間等にカメラを一台設置すれば、消失後若しくは登場前に人が存在していた場所を特定することができる。若しくは少数の候補に限定することができる。更に、一般家庭における場所のそれぞれで起こりうる行動の種類は多くないので、場所が特定(又は限定)されるのであれば、少ないセンサで、若しくはカメラ一台だけでも、そこでの人物行動を高い精度で定性的には推定することができる。そして、映像情報処理装置は、推定した消失時行動に基づき、再度、カメラの前に人物が登場した時の動作、服装、姿勢、場所を予測して行動追跡に必要な初期値やデータベースを切替える。又は、映像情報処理装置は、消失時行動に応じた家電やロボット等の自律制御機器の制御処理の内容をプランニングする。このようにすることで、人物再登場時の行動に適応した情報処理を実施することを目指す。
なお、カメラ映像に映る範囲での行動記録においても、人が物体等の陰に隠れてそこでの行動が映像に記録されないということは、例え複数台のカメラを用いていても、物の多い一般家庭環境では多く起こりうる。よって、以下に示す実施形態は、カメラ映像に映る範囲での行動記録に対しても有効である。
[第一実施形態]
情報処理装置の一例である映像情報処理装置は、カメラ一台だけで、その視野外を含む一般家庭における人物の行動を推定し、推定した内容に基づいた人物際登場時の予測に合わせて情報処理方法を自律的に制御する。以下、図を用いて一例を示す。
図1は、一般家庭の間取り例を示す図である。一例として3LDKのマンションを想定したものである。即ち、南側(図の下側)にリビングダイニングと和室とがあり、リビングダイニングの北側(図の上側)にカウンターキッチン、そして壁を挟んで洋室Aがある。和室の北側(図の上側)にはバス・トイレがあり、そして壁を挟んで洋室Bがある。また、リビングダイニングから洋室Aと、洋室B、バス・トイレとの間に廊下が伸びて、廊下の北側(図の上側)に玄関がある。
以下、本実施形態に係る映像情報処理装置の構成及び処理について説明する。
(構成100)
図2は、映像情報処理装置のハードウェア構成及びソフトウェア構成等を示す図である。図2の(b)に示すように、映像情報処理装置100は、ハードウェア構成として、CPU110と、記憶装置111と、通信装置112と、を含む。なお、映像情報処理装置100は、カメラ101をハードウェア構成として有してもよいし、カメラ101を映像情報処理装置100とは別体としてもよい。カメラ101を映像情報処理装置100とは別体とする場合、映像情報処理装置100は、ネットワーク等を介してカメラ101からカメラ101で撮影された画像を取得する。カメラ101は、撮影手段の一例であり、現実空間を撮影する。カメラ101は、映像情報処理装置100と通信可能であれば、天井から吊り下げられてもよいし、床や台やテレビの上に据え置いてもよいし、テレビ等の家電に内蔵させてもよい。以下では、図1に示すような一般家庭のリビングの角(図1における右下)に設置されるものとして説明する。この場合、カメラ101は図3に示すようなシーンを撮影する。即ち、カメラ101は、カメラの視野中心にリビングダイニングが映り、左手に和室の引き戸、右手にキッチン、奥側(上側)やや右寄りにバス・トイレへのドア、そしてその右隣に二つの洋室と玄関に続く廊下が映るシーンを撮影する。
CPU110は、記憶装置111等に記憶されているプログラムに基づき処理を実行することによって、図1の(a)に示されるような映像情報処理装置100の機能構成(ソフトウェア構成)を実現する。通信装置112は、CPU110の制御に基づき映像、映像情報処理装置100と他の装置(例えば、カメラ101等)との通信を制御する。なお、図2(a)に示される消失中行動推定モデル保持部104、登場時行動予測モデル保持部107は、より具体的には、記憶装置111の所定の領域である。
映像情報処理装置100は、ソフトウェア構成として、人物抽出部102、人物消失エリア判定部103、消失中行動推定モデル選択部105、消失中行動推定部106、登場時行動予測部108、情報処理方法変更部109を有する。
カメラ101で撮影された画像(撮影画像)撮影映像は人物抽出部102へと出力される。パンチルトやズームといったカメラパラメータは、固定でもよいし可変であってもよい。カメラパラメータが固定な場合は、パラメータは事前に計測され、人物消失エリア判定部103が保持しているか、参照可能な状態になっている。カメラパラメータが可変な場合、その可変値はカメラ101において計測され、人物消失エリア判定部103へと出力される。
人物抽出部102は、カメラ101から映像を受け取り、この映像中から人物が映っている領域(人物領域)を抽出する処理を行う。この処理に関しては、公知の技術(例えば参考文献1参照)であるので、ここでは詳しく述べない。
<参考文献1>米国特許出願公開第2007/0237387号明細書
人物抽出部102は、映像から人物を検出した際に、その検出領域の情報を人物抽出領域情報として人物消失エリア判定部103に出力する。ここで人物抽出領域情報とは、例えば、座標情報の集まりであったり、代表座標と形状情報との組であったりする。
人物抽出部102は、人物認識機能・服装認識機能・姿勢認識機能・動作認識機能等を備える。人物抽出部102は、映像から抽出された人物が、誰であるか、どんな人であるか(男性か女性か、何歳くらいか、等)、どんな服装であるか、どんな姿勢であるか、どんな動作をしているか、どんな行動をしているか、何を持っているか、等を認識してもよい。この場合、人物抽出部102は、抽出した人物の特徴認識結果を人物抽出領域情報に加えて、人物消失エリア判定部103に出力する。
また、人物抽出部102は、人物が保持する特徴や人物が置かれている状況に応じた認識手法やパラメータを数種類持っており、それらの手法とパラメータとを適応的に変更することで、最適な人物抽出を行うことができる。例えば、日常生活において人物の見え方が劇的に変化する場合として入浴後がある(入浴後は一般的に人物の着衣が変わっている上に、肌の色や髪型も変化しているため)。このような入浴後の人物を抽出するために入浴前の服装や肌の色や髪型によらない方法ならびにパラメータを使うようにすることで、より破綻が少なく人物の抽出を行うことができる。
人物消失エリア判定部103は、現実空間の部分領域に対応付けられた映像の部分領域(以下、これを「エリア」と呼ぶ)から、カメラ101が撮影している映像中で人物が消失したエリア(人物消失エリア)を判定する。
エリアは、例えば図4に示すような映像の部分領域である。即ち、バス・トイレへのドア及びその近辺が映っている部分映像領域が、現実空間に存在するバス・トイレへのドアに対応付けられて、「バス・トイレへのドアに対応するエリア」となっている。
部分映像領域と現実空間との対応付けには、カメラ101のカメラパラメータが利用される。この対応付け方法は公知の技術であるため(例えば参考文献2参照)、ここでは詳しく述べない。カメラパラメータが変化した場合、映像中のエリアが移動したり変形したりする。全映像領域が何らかのエリアとして定義されていてもよいし、人が消失しうる(映像に映らなくなりうる)領域(の一部)のみが、エリアとして用意されていてもよい。
<参考文献2>出口光一郎、ロボットビジョンの基礎、コロナ社、2000年
人物消失エリアとは、例えば、人物消失エリア判定部103が人物抽出部102から一定時間以上、人物抽出領域情報を受け取り続けたあとに、人物抽出領域情報が受け取れなくなった場合における、最後に受け取った人物抽出領域が含まれるエリアである。この人物消失エリアの定義はあくまで例であり、他の定義を用いてもよい。
人物消失エリア判定部103は、まず、人物消失エリアの存在を、内部に保持する人物抽出領域情報の受け取り履歴(人物抽出領域情報の受け取った時刻のリスト)を参照して確認する。人物消失エリアの存在が確認できた場合、人物消失エリア判定部103は、最後に受け取った人物抽出情報が示す領域が含まれるエリアを、人物消失エリアと判定する。
人物消失エリア判定部103は、人物消失エリアを判定すると、そのエリアを示す情報と人物消失エリアを判定した時刻とを含んだ人物消失エリア情報を消失中行動推定モデル選択部105へと出力する。人物抽出領域情報に抽出された人物の特徴認識結果が含まれる場合、人物消失エリア判定部103は、その特徴認識結果を人物消失エリア情報に含めて、消失中行動推定モデル選択部105へと出力する。
消失中行動推定モデル保持部104は、エリアごとに用意された消失中行動推定モデルを保持する。例えば図4に示すエリアが用意されている場合、消失中行動推定モデル保持部104は、以下の様な消失中行動推定モデルを保持する。即ち、消失中行動推定モデル保持部104は、和室の引き戸に対応するエリアA用のモデル、バス・トイレのドアに対応するエリアB用のモデル、廊下に対応するエリアC用のモデル、キッチンに対応するエリアD用のモデルを保持する。人物抽出部102が人物認識機能や服装認識機能等を備え、人物抽出領域情報が抽出された人物の特徴認識結果を含む場合、消失中行動推定モデル保持部104は、抽出された人物の特徴認識結果ごとに用意されたそれぞれのエリア用の行動推定モデルを保持する。
各消失中行動推定モデルは、行動を推定する時刻、(人物消失エリア情報が含む)人物が消失した時刻、その人物が消失してからの時間の長さ、の何れか若しくは全てを変数として持つ。即ち、消失中行動推定モデルの例としては、人物の消失時間帯ごとに消失中行動推定結果がリスト化されているものや、人物の消失時刻及び消失からの経過時間の長さによって消失中行動推定結果が変化する関数等である。
例えば、エリアB用のモデルには、人物がエリアBで消失してから10分以内であれば消失中の人物行動は「トイレの利用」と推定し、10分以上が経過すると消失中の人物行動は「入浴」と推定するようなテーブルが用意されている。
なお、バス・トイレの利用時間は個々人で差があるため、映像情報処理装置100は、その個人差を機械学習等で学習して、消失中行動推定モデルを適応的に変更してもよい。例えば、映像情報処理装置100は、エリアBで人が消失してから10分以上経って人物が再登場した際に、人物の着衣や髪型に変化が無ければ、入浴では無かった(掃除又はトイレ)と判断し、テーブルの情報を書き換えるようにしてもよい。
ここで、人物の行動を推定するモデルは、機械学習における教師なし学習の枠組みの一つでもある参考文献3の自己組織化マップや参考文献4のSOINN等の手法を用いることで効果的に学習することができる。
<参考文献3> 平野廣美著 "C++とJavaでつくるニューラルネットワーク"、パーソナルメディア、2008、p234−257
<参考文献4> Shen Furao and Osamu Hasegawa、 "An Incremental Network for On−line Unsupervised Classification and Topology Learning"、 Neural Networks 、 2005
消失中行動推定モデル保持部104に保持された行動推定モデルは、次に述べる消失中行動推定モデル選択部105に取得される。
消失中行動推定モデル選択部105は、人物消失エリア判定部103より人物消失エリア情報を受け取ると、受け取った情報に示される人物消失エリア用の消失中行動推定モデルを消失中行動推定モデル保持部104から取得(又は選択)する。そして、消失中行動推定モデル選択部105は、取得した消失中行動推定モデルを消失中行動推定部106へと出力する。
消失中行動推定モデル選択部105は、人物消失エリア情報に抽出された人物の特徴認識結果が含まれる場合、その特徴認識結果ごとに用意された、人物消失エリア用の消失中行動推定モデルを消失中行動推定モデル保持部104から取得する。そして、消失中行動推定モデル選択部105は、取得した消失中行動推定モデルを消失中行動推定部106へと出力する。例えば、住居人それぞれの用の行動推定モデルが用意されていたり、人物消失時の(正確には消失直前の)人物姿勢や人物動作ごとに行動推定モデルが用意されていたりする。
消失中行動推定部106は、消失中行動推定モデル選択部105より消失中行動推定モデルを受け取ると、受け取った消失中行動推定モデルを利用してカメラ101が撮影している映像中から人物が消失している間の行動を推定する。消失中行動推定部106は、人物の消失が判定された後はその人物が再び映像から抽出されるまで逐次推定を行い、消失中行動推定結果を登場時行動予測部108へと出力する。一例として、エリアBで人物が消失した場合、消失中行動推定部106は、消失中行動推定モデル保持部104から取得したモデルにより、消失してから10分経過するまでは、トイレの使用であると推定し、10分を経過した後は、入浴であると推定する。
登場時行動予測モデル保持部107には、消失中行動推定部106から得られる消失中行動推定結果ごとに、再度、人物が登場する時の登場時行動予測モデルが保持されている。例えば、登場時行動予測モデル保持部107には、図4のエリアBで人物が消失し、消失中行動推定部106が消失中の行動を「入浴」であると推定する場合に対して、登場時行動は「浴衣に着替え、顔を火照らせて登場する」と予測するモデルが保持されている。
登場時行動予測部108は、消失中行動推定部106から消失中行動推定結果を受け取ると、受け取った情報に示される消失中行動推定結果用の登場時行動予測モデルを登場時行動予測モデル保持部107から取得し、これに基づき登場時の行動を予測する。例えば、消失中行動推定結果が「入浴」である場合、登場時行動予測部108は、「消失時とは違う服装で登場する」と予測する。そして、登場時行動予測部108は、登場時行動の予測結果を、情報処理方法変更部109へと出力する。
情報処理方法変更部109は、登場時行動予測部108から登場時行動の予測結果を受け取ると、予測結果に合わせ、必要に応じて情報処理方法を変更する。例えば、登場時行動予測部108で人物が「浴衣に着替え、顔を火照らせて登場する」と予測した場合、情報処理方法変更部109は、以下のように情報処理を変更する。即ち、情報処理方法変更部109は、人物検出処理時に消失前の服装を想定しないように、予め人物抽出部102における服装抽出機能のパラメータを変更したり、顔の火照りを加味し肌色抽出のためのパラメータを変更したりする。この場合、人物抽出部102は、情報処理方法変更部109の変更結果を受け取り、人物抽出に必要なパラメータや抽出手法の変更を行う。
以上のように、人物消失中の行動を推定し、それに基づいて再度、人物が登場するときの行動を予測して情報処理方法を変更することで、例えば人物検出のための初期値を最適化することができる。
映像情報処理装置100は、人物の登場時行動の予測結果を、人物抽出処理方法の変更だけでなく、データとして記録して、ディスプレイ装置で提示してもよい。映像情報処理装置100は、提示前にデータの加工を行ってもよい。例えば、映像情報処理装置100は、登場時行動予測結果とその予測が行われた時刻と、を組にしたデータを記憶媒体に記録し、そのデータを時系列順に並べたリストを画面等に提示する。この登場時行動予測データは、それが居住者や別居の家族や居住者のケアを行っている医療従事者や介護従事者等に提示され、それを見た人の行動プランの判断材料となる。また、家事手伝いロボット等の自律制御機器は、この登場時行動予測データを、人物消失中に行う制御処理の内容のプランニングに利用してもよい。より具体的には、消失中行動が「入浴」で、登場時行動が「髪の毛を乾かす」と予測された場合に、家事手伝いロボットは、予めドライヤーを用意しておく、等である。
以上が、本実施形態にかかる映像情報処理装置100に関する構成部分である。
(処理)
続いて、図5に示したフローチャートを用いて、本実施形態の映像情報処理装置100が行う処理について説明する。
処理が開始されると、まずステップS100において、カメラ101は、現実空間の撮影を行う。引き続いて、カメラ101は、撮影映像を人物抽出部102に送る。人物抽出部102は、撮影映像中から人物が映っている領域を抽出する。人物抽出部102は、人物が映る領域が抽出されなかった場合、ステップS200へと処理を進める。人物抽出部102は、人物が映る領域が抽出された場合、その抽出領域の情報を人物抽出領域情報として人物消失エリア判定部103に出力する。人物抽出部102が人物認識機能や服装認識機能等を備える場合、抽出された人物の特徴認識結果を人物抽出領域情報に加えて、人物消失エリア判定部103に出力する。それを受け取った人物消失エリア判定部103は、その時刻に人物抽出部102から人物抽出領域情報を受け取ったという情報を内部に記録する。
ステップS200において、人物消失エリア判定部103は、その時刻以前の一定時間に、人物抽出部102から人物抽出領域情報を受け取っているか否かを、内部記録を参照して確認する。人物消失エリア判定部103は、過去の一定時間(例えば3秒)の間に、人物抽出領域情報を受け取っていなければ、即ち人物が継続的に映像中に映っていないと解釈し、処理をステップS100に戻す。逆に、人物消失エリア判定部103は、過去の一定時間(例えば3秒)の間に、人物抽出領域情報を受け取っていれば、即ち過去の一定時間の間に人物が映像中から消失したと解釈し、処理をステップS300へと進める。
ステップS300において、人物消失エリア判定部103は、人物消失エリアの判定を行う。即ち、人物消失エリア判定部103は、人物消失エリア判定部103内部の記録を参照し、最後に受け取った人物抽出領域情報が示す領域が、どのエリア(現実空間の部分領域に対応付けられた映像の部分領域)に含まれるかを特定する。そして、人物消失エリア判定部103は、特定したエリアを人物消失エリアと判定する。人物消失エリア判定部103は、人物消失エリアを示す情報と、内部に記録されている人物抽出領域情報を受け取った時刻の最新のもの(人物消失時刻に相当)とを、人物消失エリア情報として消失中行動推定モデル選択部105へと出力する。このとき、人物消失エリア判定部103は、人物抽出部102から受け取っている人物抽出領域情報に、抽出された人物の特徴認識結果が含まれる場合、これを人物消失エリア情報に含めて、消失中行動推定モデル選択部105へと出力する。続いて、人物消失エリア判定部103は、処理をステップS400へと進める。
ステップS400において、消失中行動推定モデル選択部105は、人物消失エリア判定部103より受け取った人物消失エリア情報に基づいて、人物消失エリアに対応する消失中行動推定モデルを、消失中行動推定モデル保持部104より取得する。人物消失エリア情報に抽出された人物の特徴認識結果が含まれる場合、消失中行動推定モデル選択部105は、抽出された人物の特徴認識結果にも対応している消失中行動推定モデルを消失中行動推定モデル保持部104より取得する。消失中行動推定モデル選択部105は、取得したモデルを、消失中行動推定部106へと送る。その後、消失中行動推定モデル選択部105は、処理をステップS500へと進める。
ステップS500において、消失中行動推定部106は、消失中行動推定モデル選択部105から受け取った消失中行動推定モデルに基づいて、カメラ101の撮影映像中から消失した人物の、消失中の行動推定を行う。消失中行動推定部106におけるこの行動推定方法は、消失中行動を推定する時刻ならびに人物消失エリア情報が含む人物消失時刻と消失人物の特徴認識結果とを用いて行われ、その実現方法はなんでもよい。以下、消失中行動推定部106における推定の例を示す。
例えば、図4に示した和室の引き戸に対応するエリアAが人物消失エリアで、人物消失時刻が21時以降で朝6時前であり、消失した人物が消失前にあくびをしていた場合、消失中行動推定部106は「(消失した人物が)和室で寝ている」と推定する。また例えば、図4に示したバス(お風呂)・トイレのドアに対応するエリアBが人物消失エリアで、行動推定時刻が人物消失時刻の5分後であれば、消失中行動推定部106は「(消失した人物が)トイレに入っている」と推定する。時間が経過して、行動推定時刻が人物消失時刻の10分後になり、かつ、人物消失時刻が18時以降24時前であれば、消失中行動推定部106は「(消失した人物が)お風呂に入っている」と推定する。また例えば、同じくエリアBが人物消失エリアで、人物消失時刻が18時よりも前で、消失した人物が掃除道具をもっている場合、消失中行動推定部106は、「(消失した人物が)トイレかお風呂を掃除している」と推定する。また例えば、図4に示した廊下に対応するエリアCが人物消失エリアで、行動推定時刻が人物消失時刻の30分後であれば、消失中行動推定部106は、「(消失した人物が)外出している」と推定する。また例えば、図4に示したキッチンに対応するエリアDが人物消失エリアで、行動推定時刻が夕方17時前後で、消失した人物がこの家の家事を担当する人であれば、消失中行動推定部106は、「(消失した人物が)夕食を準備している」と推定する。
こうして消失した人物の消失中行動を推定すると、消失中行動推定部106は、その消失中行動推定結果を登場時行動予測部108へと送り、処理をステップS600へと進める。
ステップS600において、登場時行動予測部108は、消失中行動推定部106から受け取る消失中行動推定結果に基づいて、登場時行動予測モデル保持部107に保持される登場時行動予測モデルを選択する。そして、登場時行動予測部108は、選択した登場時行動予測モデルに基づき、再び人物がカメラ101の撮影映像に再登場するときの行動を予測する。登場時行動予測部108におけるこの登場時行動予測方法は、消失中行動推定結果を用いて行われ、その実現方法はなんでもよい。以下、登場時行動予測部108における予測の例を示す。
例えば、図4に示したバス(お風呂)・トイレのドアに対応するエリアBが人物消失エリアで、ステップS500の消失中行動推定において「(消失した人物が)お風呂に入っている」と推定されていた場合、人物が再登場する際には着衣の大きな変化が予測できる。したがって、登場時行動予測部108は、エリアBより人物は浴衣に着替えて、消失したエリアと同じエリアBから再登場すると予測する。また、入浴後には体温が上昇するので、登場時行動予測部108は、肌の色が赤味を帯びて登場すると予測する。別の例として、「(消失した人物が)和室で寝ている」と推定されていた場合、登場時行動予測部108は、朝になって再登場するときには着替えていると予想して、見た目上の大きな変化があると予測する。逆に、「(消失した人物が)トイレに入っている」「(消失した人物が)トイレかお風呂を掃除している」と推定されていた場合、登場時行動予測部108は、着衣の変化や肌の色変化等は特に生じないと予測する。
こうして消失した人物が再登場する時の行動を予測すると、登場時行動予測部108は、その行動予測結果を情報処理方法変更部109へと送り、処理をステップS700へと進める。
ステップS700において、情報処理方法変更部109は、登場時行動予測部108から受け取った予測結果に基づいて、人物抽出部102の人物抽出方法や抽出に用いるパラメータ、カメラ101に適応するカメラパラメータ等を変更する。
例えば、ワイシャツとズボンとを着ていた人物がエリアBから消失し、入浴後に再度、エリアBから登場するときには浴衣を着ていると予測された場合、情報処理方法変更部109は、以下のように情報処理を変更する。即ち、情報処理方法変更部109は、入浴前に全身のパーツ情報を利用して人物抽出を行っていたのに対して、入浴後は頭部又は上半身までの情報を利用した方法に切替える。これは、ワイシャツとズボンとを着ていた場合、腕や足のパーツが映像中から分離して抽出することができるが、浴衣を着て登場した場合、ワイシャツやズボンの時ほど腕や足のパーツが明確に抽出できなくなるためである。また、入浴後は入浴前と比べ、体温が上昇しているため、顔や腕の色が赤味を帯びる傾向にある。したがって、肌色抽出を行う場合、情報処理方法変更部109は、予め登録しておいた肌色の情報に加えて、赤味成分も加味した色抽出パラメータを設定する。また、消失人物の身長等の情報が予め入力されているシステムの場合、情報処理方法変更部109等は、再登場時の頭の位置を大まかに推定することも可能である。そのため、情報処理方法変更部109は、再登場時に行う人物探索エリアを限定しておくこともできる。
このようにして、消失した人物が再度、登場する際の行動予測に基づいて人物抽出の方法ならびにパラメータを変更すると、情報処理方法変更部109は、人物抽出部102にその結果を反映し、処理をステップS800へと進める。なお、ここでは、人物が再度、登場する際に認識方法を変更する処理について言及したが、必ずしもアルゴリズムの変更や設置したカメラパラメータの変更するだけに留まらない。情報処理方法変更部109は、人物の行動を推定・予測することで対人ロボットのような自律制御機器の制御処理の内容を変更するようにしてもよい。例えば、入浴後にエリアBより身体に障害がある人物が再登場する場合、情報処理方法変更部109は、対人ロボットに制御処理の内容を変更するパラメータ等を、無線等を介して送信する。対人ロボットは、無線等を介してパラメータ等を受信すると、受信したパラメータに基づき、例えば、予めエリアB付近に待機しておき、登場後、直ぐにケアできるような姿勢をとるように制御を実行する。
ステップS800において、ステップS100と同様、カメラ101は、現実空間の撮影を行う。引き続いて、その撮影映像がカメラ101から人物抽出部102に送られ、人物抽出部102は、映像中から人物が映っている領域を抽出する処理を行う。この処理によって人物が映る領域が抽出されなかった場合、人物抽出部102は、処理をステップS500へと進める。消失中行動推定部106は、既に保持している消失中行動推定モデルに基づいて、消失した人物の消失中の行動を推定する。人物が映る領域が抽出された場合、人物抽出部102は、その抽出領域の情報を人物抽出領域情報として人物消失エリア判定部103に出力する。但し、人物抽出部102が人物認識機能を備え、抽出した人物識別が可能な場合、人物抽出部102は、以下の場合にのみ、人物抽出領域情報を人物消失エリア判定部103に出力する。つまり、人物抽出部102は、ステップS100にて抽出された人物と同一人物が抽出された場合に限り、その抽出領域の情報及び抽出された人物の特徴認識結果を、人物抽出領域情報として人物消失エリア判定部103に出力する。そうでない場合、人物抽出部102は、処理をステップS500へと進める(同一人物でなかった場合、抽出された人物に関する処理は、別途行われる)。人物抽出領域情報を受け取った人物消失エリア判定部103は、その時刻に人物抽出部102から人物抽出領域情報を受け取ったという情報を内部に記録する。そして人物消失エリア判定部103は、処理をステップS100へと進める。
以上の処理によって、映像情報処理装置100は、カメラ一台だけで、視野外を含む一般家庭における人物の行動を推定し、推定した内容に基づいた人物再登場時行動の予測に合わせて情報処理方法を自律的に制御することができる。
[第二実施形態]
本実施形態に係る映像情報処理装置は、視野の重なりのない複数台のカメラと、それぞれのカメラのそばにあるセンサと、それぞれのカメラから離れた場所にあるセンサとにより、カメラの視野外を含む一般家庭における人物の行動を推定する。そして、映像情報処理装置は、推定した内容に基づいて人物再登場時行動の予測に合わせて情報処理方法を自律的に制御する。以下、図を用いて一例を示す。
図6及び図7は、本実施形態が対象とする一般家庭の間取りの例を示す図である。4LDKの2階建て戸建てを想定したものである。図6が1階間取り、図7が2階間取りを示している。図6に示した1階にはソファとダイニングテーブルとが置かれたリビングダイニング、和室、キッチン、トイレ1、玄関、2階への階段がある。図7に示した2階には1階からの階段、洋室A、洋室B、洋室C、洗面所・バス、トイレ2がある。
以下、本実施形態に係る映像情報処理装置の構成及び処理について説明する。
(構成200)
図8は、映像情報処理装置のソフトウェア構成等を示す図である。なお、本実施形態の映像情報処理装置200のハードウェア構成は、第一実施形態の映像情報処理装置100のハードウェア構成と同様である。なお、映像情報処理装置200は、各カメラ及び各センサをハードウェア構成として有してもよいし、各カメラ及び各センサを映像情報処理装置200とは別体としてもよい。各カメラ及び各センサを映像情報処理装置200とは別体とする場合、映像情報処理装置200は、ネットワーク等を介して各カメラ及び各センサと通信可能に接続されているものとする。
カメラ201は、現実空間を撮影する。カメラ201は、映像情報処理装置200と通信可能であれば、天井から吊り下げられてもよいし、床や台やテレビの上に据え置いてもよいし、テレビ等の家電に内蔵させてもよい。以下では、図6に示すようなリビングの南側の(図の下側の)壁際に置かれるテレビの上にカメラを置く場合を想定する。この場合、カメラ201には図9に示すようなシーンが映り、この住居に住む家族がリビングダイニングで食事をしたり、くつろいだりする様子が撮影できる。しかし、リビングダイニング以外の場所である和室、キッチン、トイレ1、玄関、2階への階段の様子は撮影されない。
カメラ210も、現実空間を撮影する。カメラ210も、映像情報処理装置200と通信可能であれば、天井から吊り下げられてもよいし、床や台やテレビの上に据え置いてもよいし、テレビ等の家電に内蔵させてもよい。以下では、図7に示すような、1階からの階段を上ったところの天井にカメラが設置される場合を想定する。この場合、カメラ210には図10に示すようなシーンが映る。即ち、洋室A、洋室B、洋室Cのドアと、トイレ2及び洗面所・バスへと続く短い廊下と、が映る。
なお、消失中行動推定モデル保持部204、登場時行動予測モデル保持部207は、より具体的には、記憶装置111の所定の領域である。
映像情報処理装置200は、ソフトウェア構成として、人物抽出部202、人物消失エリア判定部203、消失中行動推定モデル選択部205、消失中行動推定部206、登場時行動予測部208、情報処理方法変更部209を有する。
カメラ201及びカメラ210の撮影映像は、両方とも人物抽出部202へと出力される。パンチルトやズームといったカメラパラメータは、カメラ201及びカメラ210の何れも、固定でもよいし可変であってもよい。カメラパラメータが固定な場合は、パラメータは事前に計測され、人物消失エリア判定部203が保持しているか、参照可能な状態になっている。カメラパラメータが可変な場合、その可変値はカメラ201、カメラ210それぞれにおいて計測され、人物消失エリア判定部203へと出力される。
人物抽出部202は、カメラ201及びカメラ210から映像を受け取り、この映像中から人物が映っている領域を抽出する処理を行う。人物抽出部202は、映像から人物を抽出した際に、その抽出領域の情報を人物抽出領域情報として人物消失エリア判定部203に出力する。ここで人物抽出領域情報とは、例えば座標情報の集まりであったり、代表座標と形状情報との組であったりする。更に人物抽出領域情報は、その抽出がどのカメラで行われたのかがわかるデータを含んでいる。
人物抽出部202は、人物認識機能・服装認識機能・姿勢認識機能・動作認識機能等を備える。人物抽出部202は、映像から抽出された人物が、誰であるか、どんな人であるか(男性か女性か、何歳くらいか、等)、どんな服装であるか、どんな姿勢であるか、どんな動作をしているか、どんな行動をしているか、何を持っているか、等を認識してもよい。この場合、人物抽出部202は、抽出した人物の特徴認識結果を人物抽出領域情報に加えて、人物消失エリア判定部203に出力する。
人物消失エリア判定部203は、現実空間の部分領域に対応付けられた映像の部分領域(「エリア」)から、カメラ201若しくはカメラ210が撮影している映像中で人物が消失したエリア(人物消失エリア)を判定する。人物消失エリア判定部203は、人物消失エリアを判定すると、そのエリアを示す情報と人物消失エリアを判定した時刻とを含んだ人物消失エリア情報を消失中行動推定モデル選択部205へと出力する。人物抽出領域情報に抽出された人物の特徴認識結果が含まれる場合、人物消失エリア判定部203は、その特徴認識結果を人物消失エリア情報に含めて、人物消失エリア情報を消失中行動推定モデル選択部205へと出力する。
消失中行動推定モデル保持部204は、エリアごとに用意された消失中行動推定モデルを保持する。各消失中行動推定モデルは、消失中行動を推定する時刻、人物が消失した時刻、その人物が消失してからの経過時間の長さ、の何れか若しくは全てを変数として持つ。更に、各消失中行動推定モデルは、センサ211、センサ212、センサ213の出力値も変数として持つ。即ち、それぞれのセンサ出力値によって消失中行動推定結果を決定する関数が、消失中人物行動推定モデルの例となる。消失中行動推定モデル保持部204に保持された消失中行動推定モデルは、次に述べる消失中行動推定モデル選択部205によって取得される。
消失中行動推定モデル選択部205は、人物消失エリア判定部203より人物消失エリア情報を受け取ると、受け取った情報に示される人物消失エリア用の消失中行動推定モデルを消失中行動推定モデル保持部204から取得する。そして、消失中行動推定モデル選択部205は、取得した消失中行動推定モデルを消失中行動推定部206へと出力する。人物消失エリア情報に抽出された人物の特徴認識結果が含まれる場合、消失中行動推定モデル選択部205は、その特徴認識結果ごとに用意された、人物消失エリア用の消失中行動推定モデルを消失中行動推定モデル保持部204から取得する。そして、消失中行動推定モデル選択部205は、取得した消失中行動推定モデルを消失中行動推定部206へと出力する。
消失中行動推定部206は、消失中行動推定モデル選択部205より消失中行動推定モデルを受け取ると、それを利用してカメラ201若しくはカメラ210が撮影している映像中から人物が消失した後の行動を推定する。ここで、消失中行動推定部206は、受け取った消失中行動推定モデルの中身に基づき、必要であればセンサ211、センサ212、センサ213よりセンサ出力を得る。消失中行動推定部206は、人物の消失が判定された後はその人物が再び映像から抽出されるまで逐次推定を行い、消失中行動推定結果を登場時行動予測部208へと出力する。
登場時行動予測モデル保持部207には、消失中行動推定部206から得られる消失中行動推定結果ごとに、再度、人物が登場する時の登場時行動予測モデルが保持されている。なお、本実施形態の場合、消失した人物は必ずしも消失した場所(人物消失エリア)から再び登場するとは限らない。よって、登場時行動の予測結果には、どのカメラ映像のどの場所(エリア)から登場するかについての情報も含まれている。
登場時行動予測部208は、消失中行動推定部206から消失中行動推定結果を受け取ると、受け取った情報に示される消失中行動推定結果用の登場時行動予測モデルを登場時行動予測モデル保持部207から取得し、これに基づき登場時の行動を予測する。そして登場時行動予測部208は、登場時行動の予測結果を、情報処理方法変更部209へと出力する。
情報処理方法変更部209は、登場時行動予測部208から登場時行動の予測結果を受け取ると、予測結果に合わせ、必要に応じて情報処理方法を変更する。例えば、登場時行動予測部208で人物が「浴衣に着替え、顔を火照らせて登場する」と予測された場合、情報処理方法変更部209は、以下のように情報処理の方法を変更する。即ち、情報処理方法変更部209は、人物抽出処理時に消失前の服装を想定しないように予め人物抽出部202における服装抽出機能のパラメータを変更したり、顔の火照りを加味し肌色抽出のためのパラメータを変更したりする。この場合、人物抽出部202は、情報処理方法変更部209の変更結果を受け取り、人物抽出に必要なパラメータや抽出手法の変更を行う。なお、先に述べたように、本実施形態の場合、消失した人物は必ずしも消失した場所(人物消失エリア)から再び登場するとは限らない。ということは、必ずしも人物の消失を判定したカメラと同じカメラで再登場を検出するとは限らない。したがって、情報処理方法変更部209は、人物抽出部202の情報処理方法やそのパラメータを変更する際、以下の様に情報処理方法を変更する。即ち、情報処理方法変更部209は、登場時行動予測に含まれる「どのカメラ映像のどの場所(エリア)から人物が登場するか」という予測内容に基づき、しかるべきカメラに関する情報処理方法を変更する。
センサ212及びセンサ213は、それぞれカメラ201、カメラ210のそばに設置される現実空間における現象を計測又は検知するセンサである。このセンサは、それぞれのカメラに映らない視野外の現実空間の状況を計測する。例えばこのセンサはマイクで、視野外で起こる事象によって発生する音を計測する。マイクが二つあり、それぞれが指向性をもっているとすると、一つのマイクはカメラ視野外の右側の現実空間で起こる事象の音を計測し、もう一方のマイクがカメラ視野外の左側の現実空間で起こる事象の音を計測する、といった役割分担を持たせることができる。もちろん、計測対象となる現実空間の状況はカメラの視野外のものだけに限るものではなく、カメラ視野内の現実空間の状況が含まれていてもよい。本実施形態の説明においては、センサ212を指向性のある二つのマイクからなるものとし、センサ213を指向性のない一つのマイクからなるものとする。
センサ211は、カメラ201及びカメラ210とは離れた場所に設置される現実空間における現象を計測又は検知するセンサである。例えば、カメラ201とカメラ210との視野外の現実空間におかれた家電製品や電灯のON/OFFを検知するセンサであったり、人の存在を検知する人感センサであったりする。説明上、センサ211と単数表記をしているが、センサ自体が複数あってもよいし、複数の場所にそれぞれ独立に存在していてもよい(即ち、センサ214、センサ215、・・・と数多くのセンサが存在してよい。)。
なお、本実施形態では、カメラ201及びカメラ210の出力を人物抽出部202へ入力して情報を統合した上で人物の消失中行動を推定しているが、必ずしも入力を統合してから消失中行動を推定する必要はない。つまり、カメラ201とカメラ210との入力をそれぞれ異なる系統で処理を行い、別々に出力された結果をそれぞれの場合に応じて適応的に選択して情報処理方法変更部209で認識方法やパラメータを変更してもよい。それはカメラを設置するシーンや構築するシステムに応じて好適な手段を選択すればよい。
以上が、本実施形態にかかる映像情報処理装置200に関する構成部分である。
(処理)
続いて、図11に示したフローチャートを用いて、本実施形態の映像情報処理装置200が行う処理について説明する。
処理が開始されると、まずステップS101において、カメラ201及びカメラ210は、現実空間の撮影を行う。引き続いて、カメラ201及びカメラ210は、撮影映像を人物抽出部202に送る。人物抽出部202は、撮影映像中から人物が映っている領域を抽出する。人物抽出部202は、人物が映る領域が抽出されなかった場合、ステップS201へと処理を進める。人物抽出部202は、人物が映る領域が抽出された場合、その抽出領域の情報を、どちらのカメラの領域であるかを示す識別情報も含めて、人物抽出領域情報として人物消失エリア判定部203に出力する。人物抽出部202が人物認識機能や服装認識機能等を備える場合、人物抽出部202は、抽出した人物の特徴認識結果を人物抽出領域情報に加えて、人物消失エリア判定部203に出力する。それ受け取った人物消失エリア判定部203は、その時刻に人物抽出部202から人物抽出領域情報を受け取ったという情報を内部に記録する。ここで、原理的にはカメラ201及びカメラ210の両方で同時に人物が検出されうるし、実際に同時に行ってもよいが、以下の説明では、それぞれのカメラ映像における人物抽出は同時には行われない場合を想定して、説明を続ける。
ステップS201において、人物消失エリア判定部203は、その時刻以前の一定時間に、人物抽出部202から人物抽出領域情報を受け取っているか否かを、内部記録を参照して確認する。ここで、過去の一定時間(例えば3秒)の間に、人物抽出領域情報を受け取っていなければ、人物消失エリア判定部203は、即ち人物が継続的に映像中に映っていないと解釈し、処理をステップS101に戻す。逆に、過去の一定時間(例えば3秒)の間に、人物抽出領域情報を受け取っていれば、人物消失エリア判定部203は、即ち過去の一定時間の間に人物が映像中から消失したと解釈し、処理をステップS301へと進める。
ステップS301において、人物消失エリア判定部203は、人物消失エリアの判定を行う。即ち、人物消失エリア判定部103は、内部の記録を参照し、最後に受け取った人物抽出領域情報が示す領域が、どのエリア(現実空間の部分領域に対応付けられた映像の部分領域)に含まれるかを特定し、そのエリアを人物消失エリアと判定する。そして、人物消失エリア判定部203は、人物消失エリアを示す情報と内部に記録されている人物抽出領域情報を受け取った時刻の最新のもの(人物消失時刻に相当)とを、人物消失エリア情報として消失中行動推定モデル選択部205へと出力する。このとき、人物消失エリア判定部203は、人物抽出部202から受け取っている人物抽出領域情報に、抽出された人物の特徴認識結果が含まれる場合、これを人物消失エリア情報に含めて、消失中行動推定モデル選択部205へと出力する。続いて、人物消失エリア判定部203は、処理をステップS401へと進める。
ステップS401において、消失中行動推定モデル選択部205は、人物消失エリア判定部203より受け取る人物消失エリア情報に基づいて、人物消失エリアに対応する行動推定モデルを、消失中行動推定モデル保持部204より取得する。人物消失エリア情報に抽出された人物の特徴認識結果が含まれる場合、消失中行動推定モデル選択部205は、抽出された人物の特徴認識結果にも対応している行動推定モデルを消失中行動推定モデル保持部204より取得する。消失中行動推定モデル選択部205は、取得したモデルを、消失中行動推定部206へと送る。その後、消失中行動推定モデル選択部205は、処理をステップS501へと進める。
ステップS501において、消失中行動推定部206は、消失中行動推定モデル選択部205から受け取った行動推定モデルに基づいて、カメラ201若しくはカメラ210の撮影映像中から消失した人物の、消失中の行動推定を行う。この行動推定方法は、行動を推定する時刻ならびに人物消失エリア情報が含む人物消失時刻、ならびにセンサ211、センサ212、センサ213のセンサ出力を用いて行われ、その実現方法はなんでもよい。以下、消失中行動推定部206における推定の例を示す。
例えば、以下の場合を例に説明を行う。
(1)図12に示した玄関及びトイレ1へと続く扉のある方向に対応するカメラ201の映像中のエリアEが人物消失エリアで、センサ212のうちのその方向を向いたマイクが室内ドアの開閉音を録音した場合
(2)センサ212のエリアEの方を向いたマイクが屋外ドアの開閉音と鍵をかける音を録音した場合
(3)図12に示した和室・キッチン・階段へと続く方向に対応するカメラ201の映像中のエリアFが人物消失エリアで、センサ212のエリアFの方向を向いたマイクが水の音を録音した場合
(4)キッチンに置かれたコーヒーメーカーのスイッチがONになったことがセンサ211の出力から判断された場合
(5)センサ212のエリアFの方向を向いたマイクが襖を開け閉めする音を録音した場合
(6)センサ212のエリアFの方向を向いたマイクが階段を登る音を録音した場合
(7)図13に示した洋室A/B/Cのドアに対応するカメラ210映像中のエリアG/H/Iが人物消失エリアで、人物消失時間が21時以降で朝6時前であり、かつ、消失人物がその洋室A/B/Cを主に利用する人物である場合
(8)エリアG/H/Iが人物消失エリアで、人物消失時間が深夜0時以降で朝6時前であり、消失人物がその洋室A/B/Cを主に利用しない人物で、かつ、カメラ210のそばに備え付けられたセンサ213が咳き込む音を記録した場合
(9)図13に示したトイレ2、洗面所・バスのある方向に対応するカメラ210映像中のエリアJが人物消失エリアであり、洗面台の電灯のスイッチがONになったことがセンサ213の出力から判断された場合
(10)センサ213が浴室の引き戸が閉まる音を記録した場合
(11)センサ213がトイレ2のドアが閉まる音を記録した場合
(12)図13に示した階段に続く方向に対応するカメラ210の映像中のエリアKが人物消失エリアである場合、
(1)の場合、消失中行動推定部206は、「(消失した人物が)トイレに入った」と推定する。(2)の場合、消失中行動推定部206は「(消失した人物が)外出した」と推定する。(3)の場合、消失中行動推定部206は「(消失した人物が)キッチンで水仕事をしている」と推定する。(4)の場合、消失中行動推定部206は、「(消失した人物が)キッチンでコーヒーをつくっている」と推定する。(5)の場合、消失中行動推定部206は、「(消失した人物が)和室に入った」と推定する。(6)の場合、消失中行動推定部206は、「(消失した人物が)二階へ行った」と推定する。(7)の場合、消失中行動推定部206は、「(消失した人物が)自分の部屋で寝た」と推定する。(8)の場合、消失中行動推定部206は、「(消失した人物が)洋室A/B/Cの主を心配して見に行った」と推定する。(9)の場合、消失中行動推定部206は、「(消失した人物が)洗面台を使っている」と推定する。(10)の場合、消失中行動推定部206は、「(消失した人物が)お風呂に入った」と推定する。(11)の場合、消失中行動推定部206は、「(消失した人物が)トイレに入った」と推定する。(12)の場合、消失中行動推定部206は、「(消失した人物が)一階へ降りて行った」と推定する。
消失した人物の消失中の行動を推定すると、消失中行動推定部206は、その行動推定結果を登場時行動予測部208へと送り、処理をステップS601へと進める。
ステップS601において、登場時行動予測部208は、消失中行動推定部206から受け取る消失中行動推定結果に基づいて、登場時行動予測モデル保持部207に保持される登場時行動予測モデルを参照する。そして、登場時行動予測部208は、再び人物がカメラ201及びカメラ210の撮影映像に再登場するときの行動を予測する。この行動予測方法は、消失中行動推定結果を用いて行われ、その実現方法はなんでもよい。例えば、図13に示した「階段に対応するエリアK」で人物が消失した場合、登場時行動予測部208は、その消失した人物は、図12に示した「和室、キッチン、階段に対応するエリアF」から数秒又は数十秒後に登場すると予測する。消失した人物が再登場する時の行動を予測すると、登場時行動予測部208は、その行動予測結果を情報処理方法変更部209へと送り、処理をステップS701へと進める。
ステップS701において、情報処理方法変更部209は、登場時行動予測部208から受け取った予測結果に基づいて、人物抽出部202の人物抽出方法ならびに抽出に用いるパラメータ、若しくはカメラ201に適応するカメラパラメータを変更する。その後、情報処理方法変更部209は、人物抽出部202にその結果を反映し、処理をステップS801へと進める。
先の例でも挙げた通り、登場時行動予測結果に基づく情報処理方法の変更は、人物抽出方法の変更に限らない。例えば、自律移動型の介護ロボットの制御内容を変更してもよい。このケースを想定した場合、センサ213の値から、「(消失した人物が)入浴が終了し、今から着替えて数分後にエリアJより登場する」ことが予測できたとすると、情報処理方法変更部209は、現在進行中の作業を一旦停止する旨の命令が発行する。この命令に基づき、自律移動型の介護ロボットは、介護作業を行うためエリアJに移動する処理に移る。
ステップS801において、ステップS101と同様、カメラ201及びカメラ210は、現実空間の撮影を行う。引き続いて、その撮影映像がカメラ201及びカメラ210から人物抽出部202に送られ、人物抽出部202は、映像中から人物が映っている領域を抽出する処理を行う。この処理によって人物が映る領域が抽出されなかった場合、人物抽出部202は、処理をステップS501へと進める。消失中行動推定部206は、既に保持している行動推定モデルに基づいて、消失した人物の消失中行動を推定する。人物が映る領域が検出される場合、人物抽出部202は、その検出領域の情報を人物抽出領域情報として人物消失エリア判定部203に出力する。但し、人物抽出部202が人物認識機能を備え、抽出された人物識別が可能な場合、人物抽出部202は、以下の場合にのみ、その検出領域の情報及び抽出された人物の特徴認識結果を、人物抽出領域情報として人物消失エリア判定部203に出力する。つまり、人物抽出部202は、ステップS101にて抽出された人物と同一人物が抽出された場合に限り、その検出領域の情報及び抽出された人物の特徴認識結果を、人物抽出領域情報として人物消失エリア判定部203に出力する。そうでない場合、人物抽出部202は、処理をステップS501へと進める(同一人物でなかった場合、抽出された人物に関する処理は、別途行われる。)。人物抽出領域情報を受け取った人物消失エリア判定部203は、その時刻に人物抽出部202から人物抽出領域情報を受け取ったという情報を内部に記録する。そして、人物消失エリア判定部203は、処理をステップS101へと進める。
以上の処理によって、映像情報処理装置200は、視野の重なりのない複数台のカメラと、それぞれのカメラのそばにあるセンサと、それぞれのカメラから離れた場所にあるセンサとにより、視野外を含む一般家庭における人物の行動を推定する。そして、映像情報処理装置200は、推定した内容に基づいた人物再登場時行動の予測を行うことで情報処理方法を自律的に制御する。なお、本実施形態ではカメラが二台を例にしているが、カメラの台数はこれに制限されるものではない。また、本実施形態ではセンサとしてマイクと家電のONを検知するセンサとを例にしているが、センサの種類等はこれに制限されるものではない。
[第三実施形態]
本実施形態に係る映像情報処理装置は、撮像装置の視野内に人物がいるにも関わらずオクルージョンによって一時的に消失した場合、その消失中の人物の行動を推定し、推定した内容に基づいた人物再登場時行動の予測に合わせた情報処理方法の自律制御を実現する。以下、図を用いて一例を示す。
図14及び図15は、本実施形態が対象とする一般家庭の間取りの例を示す図である。第1実施形態で対象とした間取りと一緒である。但し、カメラを設置する位置が異なっている。
以下、本実施形態に係る映像情報処理装置の構成及び処理について説明する。
(構成300)
図16は、映像情報処理装置のソフトウェア構成等を示す図である。なお、本実施形態の映像情報処理装置300のハードウェア構成は、第一実施形態の映像情報処理装置100のハードウェア構成と同様である。なお、映像情報処理装置300は、カメラ301及びセンサ310をハードウェア構成として有してもよいし、カメラ301及びセンサ310を映像情報処理装置300とは別体としてもよい。カメラ301及びセンサ310を映像情報処理装置300とは別体とする場合、映像情報処理装置300は、ネットワーク等を介してカメラ301及びセンサ310と通信可能に接続されているものとする。
カメラ301は、現実空間を撮影する。カメラ301は、映像情報処理装置300と通信可能であれば、天井から吊り下げられてもよいし、床や台やテレビの上に据え置いてもよいし、テレビ等の家電に内蔵させてもよい。以下では、カメラ301は、一般家庭のリビングの壁際に観察対象となる人物と同じくらいの目線の高さで設置されるものとして説明する。この場合、カメラ301は、図14に示すようなシーン、即ち、カメラの視野中心にリビングダイニングが映り、左手にバス・トイレへのドア、右手の手前にカウンター、その奥にキッチン、そして玄関に続く廊下が映るシーンを撮影する。
なお、消失中行動推定モデル保持部304、登場時行動予測モデル保持部307は、より具体的には、記憶装置111の所定の領域である。
映像情報処理装置300は、ソフトウェア構成として、人物抽出部302、人物消失エリア判定部303、消失中行動推定モデル選択部305、消失中行動推定部306、登場時行動予測部308、情報処理方法変更部309を有する。
カメラ301の撮影映像は人物抽出部302へと出力される。パンチルトやズームといったカメラパラメータは、固定でもよいし可変であってもよい。カメラパラメータが固定な場合は、パラメータは事前に計測され、人物消失エリア判定部303が保持しているか、参照可能な状態になっている。カメラパラメータが可変な場合、その可変値はカメラ301において計測され、人物消失エリア判定部303へと出力される。
人物抽出部302は、カメラ301から映像を受け取り、この映像中から人物が映っている領域を抽出する処理を行う。処理の詳細は第一実施形態で説明した処理内容と同一であるため、ここでは説明を省略する。
人物消失エリア判定部303は、カメラ301が撮影する現実空間の、どのエリアで人物が消失したのかを判定する。但し、人物消失エリア判定部303は、単にどのエリアで人物が消失したのかを判定するだけでなく、そのエリアが、事前に定義されている「他の空間への移動に伴う消失が起こるエリア」であるか、そうでないエリアであるかを区別して判定する。例えば、図15に示すような、「バス・トイレへのドアに対応するエリアL」、「キッチンに対応するエリアM」、「玄関・外出に対応するエリアN」が、「他の空間への移動に伴う消失が起こるエリア」である。これに対し図15に示すように、エリアMの近くにいた人物がカウンター越しに矢印が指す方向に倒れて映像から抽出されなくなった場合の人物消失エリアとなる「キッチンに対応するエリアM」の隣のエリアが人物消失エリアの例である。つまり、「他の空間への移動に伴う消失が起こるエリア」ではない人物消失エリアの例である。なお、部分映像領域と現実空間との対応付けには、カメラ301のカメラパラメータが利用される。この対応付け方法は第一実施形態と同様のため、ここでは説明を省略する。なお、予め用意した「エリア」以外でも人物が消失することは起こりうるが、この場合、人物消失エリア判定部303は、「事前に定義していないエリア」で消失したと判断する。
人物消失エリアの判定は、まず、人物消失エリア判定部303が人物消失エリアの存在を、内部に保持する人物抽出領域情報の受け取り履歴(人物抽出領域情報の受け取った時刻のリスト)を参照して確認する。人物消失エリアの存在が確認できた場合、人物消失エリア判定部303は、最後に受け取った人物抽出情報が示す領域が含まれるエリアを、人物消失エリアと判定する。続いて人物消失エリア判定部303は、人物消失エリアを判定すると、それが事前に定義されている「他の空間への移動に伴う消失が起こるエリア」であるかどうかを判別する。そして、人物消失エリア判定部303は、その判別結果を示す情報とそのエリアを示す情報と人物消失エリアを判定した時刻とを含んだ人物消失エリア情報を、消失中行動推定モデル選択部305へと出力する。人物抽出領域情報に抽出された人物の特徴認識結果が含まれる場合、人物消失エリア判定部303は、その特徴認識結果を人物消失エリア情報に含めて、人物消失エリア情報を消失中行動推定モデル選択部305へと出力する。
消失中行動推定モデル保持部304は、エリアごとに用意された行動推定モデルを保持する。このモデルには「他の空間への移動に伴う消失が起こるエリア」である人物消失エリア用のモデルと、「他の空間への移動に伴う消失が起こるエリア」ではない人物消失エリア用のモデルと、がある。更に場合により、消失中行動推定モデル保持部304は、「事前に定義していないエリア」用のモデルも保持する。人物抽出部302が人物認識機能や服装認識機能等を備え、人物抽出領域情報が抽出された人物の特徴認識結果を含む場合、消失中行動推定モデル保持部304は、抽出された人物の特徴認識結果ごとに用意された消失中行動推定モデルを保持する。各消失中行動推定モデルは、行動を推定する時刻、(人物消失エリア情報が含む)人物が消失した時刻、その人物が消失してからの経過時間の長さ、の何れか若しくは全てを変数として持つ。即ち、消失中人物行動推定モデルの例としては、人物の消失時間帯ごとに行動推定結果がリスト化されているものや、人物の消失時刻及び消失からの経過時間の長さによって行動推定結果が変化する関数等である。例えば、「他の空間への移動に伴う消失が起こるエリア」ではない、ある人物消失エリア用のモデルは、消失後10分以内であれば正常行動を物陰で行っていると推定し、10分以上の消失が続くと物陰で人物に何らかの異常行動があったと推定する。ここで、正常行動と異常行動との境目を決める時間は個々人で差があるため、その個人差は機械学習等で学習することで適応的に変更することができる。例えば、映像情報処理装置300は、頻繁に物陰で10分以上消失することの多い人物の場合、10分以上経過しても特に異常が無いと判断し、テーブルの情報を書き換えて学習を行う。消失中行動推定モデル保持部304に保持された行動推定モデルは、次に述べる消失中行動推定モデル選択部305によって取得される。
消失中行動推定モデル選択部305は、人物消失エリア判定部303より人物消失エリア情報を受け取ると、受け取った情報に示される人物消失エリア用の行動推定モデルを消失中行動推定モデル保持部304から取得する。そして、消失中行動推定モデル選択部305は、取得した行動推定モデルを消失中行動推定部306へと出力する。
消失中行動推定部306は、消失中行動推定モデル選択部305より消失中行動推定モデルを受け取ると、それを利用してカメラ301が撮影している映像中から人物が消失している間の行動を推定する。ここで、受け取った消失中行動推定モデルの中身に基づき、消失中行動推定部306は、必要であればセンサ310よりセンサ出力を得る。例えば、図15に示すように人物が「他の空間への移動に伴う消失が起こるエリア」ではない、ある人物消失エリアで消失した際に、センサ310が「ドン」という大きな音を計測した場合は、消失中行動推定部306は、以下のように推定する。つまり、消失中行動推定部306は、消失してからの時間が経過せずとも物陰で人物が何らかの異常行動を起こしたと推定する。消失中行動推定部306は、このような推定を、人物の消失が判定された後、その人物が再び映像から抽出されるまで逐次行い、消失中行動推定結果を登場時行動予測部308へと出力する。
登場時行動予測モデル保持部307には、消失中行動推定部306から得られる消失中行動推定結果ごとに、再度、人物が登場する時の登場時行動予測モデルが保持されている。
登場時行動予測部308は、消失中行動推定部306から消失中行動推定結果を受け取ると、受け取った情報に示される消失中行動推定結果用の登場時行動予測モデルを登場時行動予測モデル保持部307から取得し、これに基づき登場時の行動を予測する。そして、登場時行動予測部308は、登場時行動予測結果を、情報処理方法変更部309へと出力する。
情報処理方法変更部309は、登場時行動予測部308から登場時行動の予測結果を受け取ると、第一実施形態と同様に予測結果に合わせ、必要に応じて情報処理方法を変更する。例えば、空間の移動ではなく物陰に隠れた場合の消失については、再び映像に登場するときに見た目はあまり変わらないが登場する場所は消失する場所と異なるケースが多い。したがって、情報処理方法変更部309は、消失前の行動(例えば移動方向)等に基づいて、登場する場所を事前に予測し、その場所が映る映像を重点的に処理することで登場時行動の認識精度を上げる等の情報処理方法の変更を行う。
映像情報処理装置300は、登場時行動の予測結果を、データとして記録して、ディスプレイ装置で提示してもよい。例えば、映像情報処理装置300は、登場時行動予測結果とその予測が行われた時刻を組にしたデータを記憶媒体に記録し、そのデータを時系列順に並べたリストを画面等に提示する。なお、提示の方法等は、この方法に限らない。登場時行動予測データは、それが居住者や別居の家族や居住者のケアを行っている医療従事者や介護従事者等に提示され、それを見た人の行動プランの判断材料となる。また、登場時行動予測データを、家事手伝いロボットのような自律制御機器が人物消失中に行う制御処理の内容のプランニングに利用するようにしてもよい。
以上のように、人物消失中の行動を推定し、それに基づいて再度、人物が登場するときの行動を予測して情報処理方法を変更することで、例えば人物検出のための初期値を最適化することができる。
以上が、本実施形態にかかる映像情報処理装置300に関する構成部分である。
(処理)
続いて、図17に示したフローチャートを用いて、本実施形態の映像情報処理装置300が行う処理について説明する。
処理が開始されると、まずステップS102において、カメラ301は、現実空間の撮影を行う。それ以降のステップS202からステップS402までの処理は、第一実施形態と同様であるため、ここでは処理の説明を省略する。
ステップS502において、消失中行動推定部306は、消失中行動推定モデル選択部305から受け取った消失中行動推定モデルに基づいて、カメラ301の撮影映像中から消失した人物の、消失中の行動推定を行う。この消失中行動推定方法は、行動を推定する時刻ならびに人物消失エリア情報が含む人物消失時刻、ならびにセンサ310のセンサ出力を用いて行われ、その実現方法はなんでもよい。以下、消失中行動推定部306における推定の例を示す。
消失中行動推定部306は、以下に示すような場合、第一実施形態及び第二実施形態と同様の処理に基づいて処理を行う。つまり、例えば、図15に示すような「バス・トイレへのドアに対応するエリアL」、「キッチンに対応するエリアM」、「玄関・外出に対応するエリアN」が対応付けられていた場合で、かつ、それらのエリアから人物が消失した場合である。一方、図15に示すようにカウンターの後ろ(エリアL〜N以外の領域)で急に人物が消失した場合で、そのカウンターの後ろ側に何か日用品を保管していた場合、消失中行動推定部306は、「日用品を取るために人物が消失した」と推定する。このとき、センサ310が不自然な物音を同時に記録していた場合、消失中行動推定部306は、その人物が何らかの異常行動を起こしたと推定する。
こうして消失した人物の消失中の行動を推定すると、消失中行動推定部306は、その消失時行動推定結果を登場時行動予測部308へと送り、処理をステップS602へと進める。
ステップS602において、登場時行動予測部308は、消失中行動推定部306から受け取った情報(消失した人物の消失中の行動推定結果)を取得し、登場時行動予測モデル保持部307のモデルを参照する。そして、登場時行動予測部308は、再び人物がカメラ301で撮影映像に再登場するときの行動を予測する。この行動予測方法は、消失中行動推定結果を用いて行われ、その実現方法はなんでもよい。以下、登場時行動予測部308における予測の例を示す。
例えば、図15に示すようにカウンターの後ろ(エリアL〜N以外の領域)で急に人物が消失した場合で、何らかの異常音等が確認されない場合、消失中行動推定部306は、「日用品を取るために人物が消失した」と推定する。そして、登場時行動予測部308は、「数秒後又は数分後にはカウンター付近から人物が登場する」と予測する。また、何らかの異常音が確認された場合、登場時行動予測部308は、「(転倒等の異常行動の発生により)このままでは人物は再登場しない」と予測する。その後、登場時行動予測部308は、その行動予測結果を情報処理方法変更部309へと送り、処理をステップS702へと進める。
ステップS702において、情報処理方法変更部309は、登場時行動予測部308から受け取った予測結果に基づいて、人物抽出部302の人物抽出方法ならびに抽出に用いるパラメータ、若しくはカメラ301に適応するカメラパラメータを変更する。
先の例でも挙げた通り、登場時行動予測結果に基づく情報処理方法の変更は、人物抽出方法の変更に限らない。例えば、要介護者が人物消失エリア以外で一定時間出てこない場合、若しくはカメラ以外のセンサによって、何らかの異常が発生したと予測できる場合、その異常に対応すべく、情報処理方法変更部309は、処理内容を変更してもよい。即ち、出力装置がディスプレイであった場合、情報処理方法変更部309は、異常がある旨をディスプレイに警告表示したり、音で提示したりする。また、情報処理方法変更部309は、自律移動型ロボットに、消失したと思われる地点に移動し人物を発見するといった行動をとらせるよう制御する。また、予測の結果、特に処理内容を変更する必要がない場合、情報処理方法変更部309は、現在進行中の処理を継続して行わせる。
このようにして、消失した人物が再度、登場する際の行動予測に基づいて情報処理方法を変更すると、情報処理方法変更部309は、人物抽出部302にその結果を反映し、処理をステップS802へと進める。
ステップS802において、ステップS102と同様に、カメラ301は、現実空間の撮影を行う。引き続いて、その撮影映像がカメラ301から人物抽出部302に送られ、人物抽出部302は、映像中から人物が映っている領域を抽出する処理を行う。このとき、ステップS602で、消失した人物が何秒後又は何分後に再登場するかを予測しているため、ステップS802において、人物抽出部302は、その予測された時間に達するまでは、撮影・人物抽出の処理を継続して行う。そして、この処理によって予測時間を過ぎても人物が映る領域が検出されない場合、人物抽出部302は、処理をステップS502へと進める。そして、消失中行動推定部306が、既に保持している消失中行動推定モデルに基づいて、消失した人物の消失後の行動を推定する。人物が映る領域が抽出された場合、人物抽出部302は、その抽出領域の情報を人物抽出領域情報として人物消失エリア判定部303に出力する。但し、人物抽出部302が人物認識機能を備え、抽出された人物識別が可能な場合、人物抽出部302は、以下の場合にのみ、その検出領域の情報及び抽出された人物の特徴認識結果を、人物抽出領域情報として人物消失エリア判定部303に出力する。つまり、人物抽出部302は、ステップS102にて抽出された人物と同一人物が抽出された場合に限り、その検出領域の情報及び抽出された人物の特徴認識結果を、人物抽出領域情報として人物消失エリア判定部303に出力する。そうでない場合、人物抽出部302は、ステップS502へと処理を進める(同一人物でなかった場合、抽出された人物に関する処理は、別途行われる。)。人物抽出領域情報を受け取った人物消失エリア判定部303は、その時刻に人物抽出部302から人物抽出領域情報を受け取ったという情報を内部に記録する。そして人物消失エリア判定部303は、処理をステップS102へと進める。なお、ステップS802では、例えば、人物抽出部302は、人物が再度、登場するまでの時間を過去のデータを基に予測し、その予測結果が実際の人物の行動によってどの程度差異があったかを記録する。そして、人物抽出部302は、登場時行動予測モデル保持部307に記憶されている登場時行動予測モデル又は、それを計算するためのテーブル情報を更新してもよい。
以上の処理によって、映像情報処理装置300は、カメラとそばにあるセンサにより、「他の空間への移動に伴う消失が起こるエリア」以外で人物が消失した場合にも、その人物の消失中行動を推定する。そして、映像情報処理装置300は、その推定した内容に基づいた登場時行動予測を行うことで、情報処理方法の自律変更を実現する。なお、本実施形態ではカメラとセンサを1台ずつの構成を例にしているが、カメラの台数はこれに制限されるものではない。また、本実施形態ではセンサとしてマイクと家電のONを検知するセンサを例にしているが、センサの種類等はこれに制限されるものではない。
また、以上の実施形態で述べた、消失中行動推定に用いる人物消失エリア、消失中行動推定時刻、人物消失時刻、人物消失時刻からの経過時間等の閾値パラメータは、使用者の行動や室内の構造・配置に応じて、使用者が自由に設定してよい。又は、上記映像情報処理装置を設置した際に、上述の消失中行動推定結果の記録と実際の行動との差異から上記パラメータを最適化する初期化操作を行ってもよい。また使用者の年齢変化に応じて、上記パラメータを自動的に変化させたり行動変化の結果を用いて自動学習させたりしてもよい。
[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。
以上、上述した各実施形態によれば、記録できた「ある行動」に関する情報と、その「ある行動」の発現後に得られる情報と、を利用して、再び記録が可能になる「次の行動」を予測することができる。「次の行動」を予測可能にすることによって、部分的に欠損し細かく分断された行動記録しかできない環境下において、行動記録の非連続性に起因する情報処理の破綻を解決することできる。
以上、本発明の好ましい実施形態について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形・変更が可能である。
110 CPU、111 記憶装置、112 通信装置

Claims (11)

  1. 撮影手段で撮影された映像から消失した人物の消失中の行動を推定する消失中行動推定手段と、
    前記消失中行動推定手段で推定された消失中行動に対応する登場時行動予測モデルを、消失中行動ごとの複数の登場時行動予測モデルを保持する登場時行動予測モデル保持手段より取得する取得手段と
    前記取得手段で取得した登場時行動予測モデルに基づき前記映像から消失した人物が再び映像中に登場するときの行動を予測する登場時行動予測手段と、
    を有する情報処理装置。
  2. 撮影手段で撮影された映像から人物領域を抽出する人物抽出手段と、
    前記人物抽出手段で抽出された人物領域に基づき前記映像から人物が消失したエリアを判定する人物消失エリア判定手段と、
    を更に有し、
    前記消失中行動推定手段は、前記人物消失エリア判定手段で判定されたエリアに対応する消失中行動推定モデルを、エリアごとの複数の消失中行動推定モデルを保持する消失中行動推定モデル保持手段より取得し、取得した消失中行動推定モデルに基づき映像から消失した人物の消失中の行動を推定する請求項1記載の情報処理装置。
  3. 前記人物消失エリア判定手段は、前記人物抽出手段で抽出された人物領域に基づき前記映像から人物が消失したエリアが事前に定義された他の空間への移動に伴う消失が起こるエリアであるか否かを判定する請求項2記載の情報処理装置。
  4. 前記登場時行動予測手段で予測された行動に基づき、実行すべき処理を変更する変更手段を更に有する請求項2記載の情報処理装置。
  5. 前記変更手段は、前記登場時行動予測手段で予測された行動に基づき、前記人物抽出手段での人物抽出処理を変更する請求項4記載の情報処理装置。
  6. 前記変更手段は、前記登場時行動予測手段で予測された行動に基づき、自律制御機器の制御処理の内容を変更する請求項4記載の情報処理装置。
  7. 前記消失中行動推定モデルは、前記人物の消失が起こった時刻に基づいて消失中行動推定結果を推定するモデルである請求項2乃至6何れか1項記載の情報処理装置。
  8. 前記人物抽出手段は、撮影手段で撮影された映像から人物領域を抽出し、抽出した人物領域の人物の特徴を認識し、
    前記消失中行動推定モデルは、前記人物抽出手段で認識された人物の特徴に基づいて、消失中行動推定結果を推定するモデルである請求項2乃至6何れか1項記載の情報処理装置。
  9. 現象を計測又は検知するセンサを更に有し、
    前記消失中行動推定モデルは、人物の消失中に得られる前記センサの出力に基づいて消失中行動推定結果を推定するモデルである請求項2乃至6何れか1項記載の情報処理装置。
  10. 情報処理装置が実行する情報処理方法であって、
    撮影手段で撮影された映像から消失した人物の消失中の行動を推定する消失中行動推定ステップと、
    前記消失中行動推定ステップで推定された消失中行動に対応する登場時行動予測モデルを、消失中行動ごとの複数の登場時行動予測モデルを保持する登場時行動予測モデル保持手段より取得する取得ステップと
    前記取得ステップで取得した登場時行動予測モデルに基づき前記映像から消失した人物が再び映像中に登場するときの行動を予測する登場時行動予測ステップと、
    含む情報処理方法。
  11. コンピュータを、
    撮影手段で撮影された映像から消失した人物の消失中の行動を推定する消失中行動推定手段と、
    前記消失中行動推定手段で推定された消失中行動に対応する登場時行動予測モデルを、消失中行動ごとの複数の登場時行動予測モデルを保持する登場時行動予測モデル保持手段より取得する取得手段と
    前記取得手段で取得した登場時行動予測モデルに基づき前記映像から消失した人物が再び映像中に登場するときの行動を予測する登場時行動予測手段と、
    して機能させるプログラム。
JP2010100107A 2010-04-23 2010-04-23 情報処理装置、情報処理方法及びプログラム Active JP5473750B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010100107A JP5473750B2 (ja) 2010-04-23 2010-04-23 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010100107A JP5473750B2 (ja) 2010-04-23 2010-04-23 情報処理装置、情報処理方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2011232822A JP2011232822A (ja) 2011-11-17
JP2011232822A5 JP2011232822A5 (ja) 2013-06-06
JP5473750B2 true JP5473750B2 (ja) 2014-04-16

Family

ID=45322099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010100107A Active JP5473750B2 (ja) 2010-04-23 2010-04-23 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP5473750B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5849762B2 (ja) * 2012-02-22 2016-02-03 日本電気株式会社 予測情報提示システム、予測情報提示装置、予測情報提示方法および予測情報提示プログラム
JP5956248B2 (ja) * 2012-05-21 2016-07-27 セコム株式会社 画像監視装置
JP7268604B2 (ja) * 2017-12-25 2023-05-08 コニカミノルタ株式会社 被監視者監視支援装置、被監視者監視支援システム、被監視者監視支援方法、および、被監視者監視支援プログラム
CN110094782B (zh) * 2019-05-20 2020-09-04 珠海格力电器股份有限公司 一种智能油烟机的控制方法及智能油烟机

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5027359B2 (ja) * 2001-06-14 2012-09-19 パナソニック株式会社 人体検知装置
US6856249B2 (en) * 2002-03-07 2005-02-15 Koninklijke Philips Electronics N.V. System and method of keeping track of normal behavior of the inhabitants of a house
JP2004185431A (ja) * 2002-12-04 2004-07-02 Sekisui Chem Co Ltd 生活状況環境表現装置及び表現装置
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP2008052626A (ja) * 2006-08-28 2008-03-06 Matsushita Electric Works Ltd 浴室異常検知システム
JP2009098774A (ja) * 2007-10-15 2009-05-07 Mitsubishi Electric Corp 人物追跡システム及び人物追跡方法及び人物追跡プログラム
JP5012589B2 (ja) * 2008-03-10 2012-08-29 三菱電機株式会社 画像情報を用いた人物追跡システム

Also Published As

Publication number Publication date
JP2011232822A (ja) 2011-11-17

Similar Documents

Publication Publication Date Title
US11120559B2 (en) Computer vision based monitoring system and method
US20110091069A1 (en) Information processing apparatus and method, and computer-readable storage medium
JP2007156577A (ja) 生活支援ロボットによる色情報獲得方法
CN114391163A (zh) 手势检测系统和方法
US20150302310A1 (en) Methods for data collection and analysis for event detection
JP6725411B2 (ja) 行動評価装置、行動評価方法
JP5473750B2 (ja) 情報処理装置、情報処理方法及びプログラム
GB2525476A (en) Method and device for monitoring at least one interior of a building, and assistance system for at least one interior of a building
JP6720909B2 (ja) 行動検知装置、該方法および該プログラム、ならびに、被監視者監視装置
CN109753865B (zh) 对象历史关联的系统和方法
WO2013006508A1 (en) Activity recognition in multi-entity environments
CN104742140B (zh) 状态判定系统、状态判定方法及移动机器人
Dovgan et al. Intelligent elderly-care prototype for fall and disease detection
JP7407562B2 (ja) 危険行動予防装置、危険行動予防システム、危険行動予防方法及び危険行動予防プログラム
EP3616095A1 (en) Computer vision based monitoring system and method
WO2020022371A1 (ja) ロボットならびにその制御方法および制御プログラム
US11869104B2 (en) Visitor-tailored property configuration
EP3992987A1 (en) System and method for continously sharing behavioral states of a creature
WO2022009489A1 (ja) 行動認識装置、行動認識方法、及びプログラム
Przybylo Landmark detection for wearable home care ambient assisted living system
WO2021084949A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP7388200B2 (ja) リハビリテーションを支援する情報の提供の方法およびリハビリテーション支援システム
Ismail et al. Multimodal indoor tracking of a single elder in an AAL environment
JP7465644B2 (ja) 監視システム、及び監視方法
Vasileiadis et al. A living lab infrastructure for investigating activity monitoring needs in service robot applications

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130423

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130423

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140204

R151 Written notification of patent or utility model registration

Ref document number: 5473750

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151