JP2011090408A - 情報処理装置、その行動推定方法及びプログラム - Google Patents

情報処理装置、その行動推定方法及びプログラム Download PDF

Info

Publication number
JP2011090408A
JP2011090408A JP2009241879A JP2009241879A JP2011090408A JP 2011090408 A JP2011090408 A JP 2011090408A JP 2009241879 A JP2009241879 A JP 2009241879A JP 2009241879 A JP2009241879 A JP 2009241879A JP 2011090408 A JP2011090408 A JP 2011090408A
Authority
JP
Japan
Prior art keywords
person
area
video
behavior
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009241879A
Other languages
English (en)
Other versions
JP2011090408A5 (ja
Inventor
Mahoro Anabuki
まほろ 穴吹
Atsushi Nogami
敦史 野上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009241879A priority Critical patent/JP2011090408A/ja
Priority to US12/877,479 priority patent/US20110091069A1/en
Publication of JP2011090408A publication Critical patent/JP2011090408A/ja
Publication of JP2011090408A5 publication Critical patent/JP2011090408A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks

Abstract

【課題】
未撮影領域における人物の行動を推定できるようにした技術を提供する。
【解決手段】
情報処理装置は、撮像装置により現実空間が撮影された映像内から人物を含む人物抽出領域を抽出する抽出手段と、前記映像内に予め設定された1又は複数のエリアに対応して当該エリアに関する行動推定モデルを保持するモデル保持手段と、前記抽出手段により抽出された前記人物抽出領域の履歴に基づき前記映像内から人物が消失した前記エリアを同定する消失エリア同定手段と、前記同定された前記エリアに対応する行動推定モデルを前記モデル保持手段から取得する取得手段と、前記取得手段により取得された前記行動推定モデルを用いて前記映像内から消失した人物の消失後の行動を推定する行動推定手段とを具備する。
【選択図】 図1

Description

本発明は、情報処理装置、その行動推定方法及びプログラムに関する。
例えば、一般家庭環境における人物の行動を映像及び音声で記録し、当該記録した行動群の中から人にとって意味のある行動パターンを自動的に抽出してそれを人に提示することを目指した技術がいくつか知られている。非特許文献1によれば、一般家庭の各部屋の天井に備え付けたカメラ及びマイクにより住居人の行動を記録し、そこで起こる行動へアノテーションを半自動的につけることを目指した技術が開示されている。
また、非特許文献2によれば、床に圧力センサ、天井にカメラやマイクを多数設置し、それにより、家庭内での人の生活行動を記録し、人のいる位置に基づく記録映像の要約・閲覧や、家具や人同士のインタラクションの検出を行なう技術が開示されている。なお、非特許文献1や2に限らず、家庭環境下での全行動を記録し、そこから意味のある情報の抽出を目指す技術は数知れず研究されている。
Michael Fleischman, Philip DeCamp, and Deb Roy. (2006). Mining Temporal Patterns of Movement for Video Content Classification. Proceedings of the 8th ACM SIGMM International Workshop on Multimedia Information Retrieval. Interactive Experience Retrieval for a Ubiquitous Home, ACM Multimedia Workshop on Continuous Archival of Personal Experience 2006 (CARPE2006), pp.45-49, Oct.27, 2006, Santa Barbara, CA
このような技術の多くでは、カメラやマイクといったセンサ機器を家全体に数多く設置する構成が前提となっているため、コストがかさんでしまう。例えば、機器単体のコストは勿論のこと、仮に、機器単体が安くその数がしれているとしても、既存の家等に対してこのような環境を構築する場合には、相応の設置コストがかかってしまう。
本発明は、上記課題に鑑みてなされたものであり、未撮影領域における人物の行動を推定できるようにした技術を提供することを目的とする。
上記課題を解決するため、本発明の一態様による情報処理装置は、撮像装置により現実空間が撮影された映像内から人物を含む人物抽出領域を抽出する抽出手段と、前記映像内に予め設定された1又は複数のエリアに対応して当該エリアに関する行動推定モデルを保持するモデル保持手段と、前記抽出手段により抽出された前記人物抽出領域の履歴に基づき前記映像内から人物が消失した前記エリアを同定する消失エリア同定手段と、前記同定された前記エリアに対応する行動推定モデルを前記モデル保持手段から取得する取得手段と、前記取得手段により取得された前記行動推定モデルを用いて前記映像内から消失した人物の消失後の行動を推定する行動推定手段とを具備することを特徴とする。
本発明によれば、未撮影領域における人物の行動を推定できる。これにより、例えば、カメラ等にかかるコストを抑制できる。
実施形態1に係わる監視対象領域の概要の一例を示す図。 実施形態1に係わる情報処理装置10の機能的な構成の一例を示す図。 カメラ11により撮影される映像の一例を示す図。 実施形態1に係わるエリアの概要の一例を示す図。 図2に示す情報処理装置10の処理の流れの一例を示すフローチャート。 実施形態2に係わる監視対象領域の概要の一例を示す図。 実施形態2に係わる情報処理装置10の機能的な構成の一例を示す図。 カメラ21により撮影される映像の一例を示す図。 実施形態2に係わるエリアの概要の一例を示す図。
以下、本発明に係わる情報処理装置、その行動推定方法及びプログラムの一実施の形態について添付図面を参照して詳細に説明する。
(実施形態1)
まず、本実施形態に係わる情報処理装置の監視対象について説明する。図1は、実施形態1に係わる監視対象領域の概要の一例が示されており、この場合、監視対象領域として3LDKのマンションの間取りが示される。
南側(図中下側)には、リビングダイニング及び和室が設けられている。リビングダイニングの北側(図中上側)にはカウンターキッチンが設けられており、当該キッチンの壁を挟んだ向こう側には洋室Aが設けられている。和室の北側(図中上側)には、バス・トイレが設けられており、当該バス・トイレの壁を挟んだ向こう側には洋室Bが設けられている。また、リビングダイニング及び洋室Aと、和室、バス・トイレ、洋室Bとの間には、廊下が伸びており、当該廊下の北側(図中上側)には玄関が設けられている。
図2は、実施形態1に係わる情報処理装置10の機能的な構成の一例を示す図である。
情報処理装置10は、カメラ11と、人物抽出部12と、エリア同定部13と、行動推定モデル保持部14と、行動推定モデル取得部15と、行動推定部16と、行動記録提示部17とを具備して構成される。
カメラ11は、撮像装置として機能し、現実空間を撮影する。カメラ11は、情報処理装置10の外部に設けられても、内部に設けられてもよいが、実施形態1においては、装置外部(リビングの角(図1における右下))に設けられる場合を例に挙げる。カメラ11が装置外部に設けられる場合、カメラ11は、例えば、天井から吊り下げて設けられたり、床や台、その他、テレビの上に据え置かれたりする。また、テレビなどの家電に内蔵さていてもよい。実施形態1において、カメラ11は、図3に示すようなシーン、すなわち、カメラ視野中心にリビングダイニングが映る映像を撮影する。当該映像内には、左手に和室の引き戸、右手にキッチン、奥側(図中上側)やや右寄りにバス・トイレのドア、そしてその右隣に2つの洋室と玄関に続く廊下とが含まれる。なお、パンチルトやズームといったカメラ11のパラメータ(カメラパラメータ)は、固定であっても可変であっても構わない。カメラパラメータが固定である場合、情報処理装置10(具体的には、エリア同定部13)は、事前に計測されたパラメータを保持する(エリア同定部13が参照可能な他の場所に保持されてもよい)。なお、カメラパラメータが可変である場合、その可変値はカメラ11において計測される。
人物抽出部12は、カメラ11から映像を受け取り、この映像内から人物が映っている領域を検出し、当該領域を抽出する。この抽出された領域に関する情報(以下、人物抽出領域情報と呼ぶ)は、エリア同定部13に出力される。なお、人物抽出領域情報は、例えば、座標情報の集まりであったり、代表座標と形状情報の組であったりする。なお、領域の抽出手法は、従来の技術を用いればよく、その方法は特に問わない。例えば、米国特許出願公開第2007/0237387号に開示された手法を用いればよい。
人物抽出部12は、人物認識機能、服装認識機能、姿勢認識機能、動作認識機能などを備えていてもよい。この場合、映像内から抽出した人物が、誰であるか、どんな人であるか(男性か女性か、何歳くらいか等)、どんな服装であるか、どんな姿勢であるか、どんな動作をしているか、どんな行動をしているか、何を持っているか、等を認識するようにしてもよい。当該機能を有する場合、人物抽出部12は、人物抽出領域情報に対して当該抽出した人物の特徴認識結果を加えて、エリア同定部13に出力する。
エリア同定部13は、映像内の部分領域(以下、エリアと呼ぶ)から人物が消失したエリア(人物消失エリア)や、人物が登場したエリア(人物登場エリア)を同定する。具体的には、エリア同定部13は、消失エリア同定部13aと、登場エリア同定部13bとを具備し、消失エリア同定部13aにおいて、上述した人物消失エリアを同定し、登場エリア同定部13bにおいて、上述した人物登場エリアを同定する。エリア同定部13においては、人物抽出領域情報の受け取り履歴(人物抽出領域情報の受け取った時刻のリスト)を保持し、当該履歴を参照することにより上記同定処理を行なう。
エリア(人物消失エリア又は人物登場エリア)の同定が済むと、エリア同定部13は、当該エリアを示す情報と、当該エリアを同定した時刻とを含む情報を、人物消失エリア情報又は人物登場エリア情報として行動推定モデル取得部15へ出力する。
ここで、上述したエリアは、例えば、図4に示すように、カメラ11により撮影された映像内の部分領域を示す。このエリアは、図4に示すように、1又は複数(この場合、複数)あり、予め設定されている。バス・トイレのドア及びその近辺が映っている映像内のエリアが、現実空間に存在するバス・トイレのドアに対応付けられている。映像内における各エリアと現実空間との対応付けには、例えば、カメラ11のカメラパラメータを用いればよい。対応付け手法は、従来の技術を用いればよく、その方法は特に問わない。例えば、「出口光一郎、ロボットビジョンの基礎、コロナ社、2000年」に開示された手法を用いればよい。なお、カメラパラメータが変更されると、映像内の各エリアが移動したり変形したりすることは言うまでもない。また、全映像内の領域が何らかのエリアとして定義されていてもよいし、人が消失したり(映像に映らない)人が登場したり(映像に映り始める)しうる領域のみをエリアとして設けてもよい。
ここで、エリア同定部13(消失エリア同定部13a)は、人物抽出領域情報を所定時間以上継続して受信している場合に、当該情報が未受信となったときには、最後に受信した人物抽出領域情報が示すエリアを人物消失エリアとして同定する。また、エリア同定部13(登場エリア同定部13b)は、人物抽出領域情報を所定時間以上継続して未受信の場合に、人物抽出領域情報を受信したときには、当該受信した人物抽出領域情報が示すエリアを人物登場エリアとして同定する。
行動推定モデル保持部14は、各エリアに対応した行動推定モデルを保持する。例えば、図4に示すエリア構成の場合、行動推定モデル保持部14は、和室の引き戸に対応するエリアA用のモデル、バス・トイレのドアに対応するエリアB用のモデル、廊下に対応するエリアC用のモデル、キッチンに対応するエリアD用のモデルを保持する。なお、人物抽出領域情報に特徴認識結果が含まれている場合、行動推定モデル保持部14は、当該特徴認識結果毎(例えば、人物毎)に各エリアの行動推定モデルを保持する。
行動推定モデルは、例えば、行動推定時刻、人物消失時刻、人物登場時刻、再登場時間の内の少なくとも1つの条件情報と、当該条件情報に対応した行動推定結果を示す行動推定結果情報とを対応付けたリストである。また、例えば、これら条件情報の内の少なくとも1つを変数として、それに対応した行動推定結果を算出する関数であってもよい。なお、行動推定時刻は、行動の推定を行なう時刻であり、人物消失時刻は、人物が消失した時刻であり、人物登録時刻は、人物が登場した時刻である。また、再登場時間は、人物が消失した後、再度登場するまでの時間を示す時間情報である。
行動推定モデル取得部15は、エリア同定部13から人物消失エリア情報又は人物登場エリア情報を受信し、当該受信した情報に示される人物消失エリア又は人物登場エリアに対応する行動推定モデルを行動推定モデル保持部14から取得する。当該取得した行動推定モデルは、行動推定部16へ出力される。なお、人物消失エリア情報又は人物登場エリア情報に特徴認識結果が含まれている場合、行動推定モデル取得部15は、その特徴認識結果と、人物消失エリア又は人物登場エリアとに基づいて行動推定モデルを取得し、それを行動推定部16へ出力する。例えば、住居人それぞれに対応した行動推定モデルが用意されていたり、消失時及び登場時の服装が同じ時と異なる時とのそれぞれの場合における行動推定モデルが用意されていたりする。また、例えば、人物消失時(正確には消失直前)の人物の姿勢や人物の動作毎に行動推定モデルが用意されてる。
行動推定部16は、行動推定モデル取得部15から行動推定モデルを受信すると、当該モデルを用いて、映像内から人物が消失した後の人物の行動、又は人物が登場する前の人物の行動を推定する。すなわち、撮影領域外(未撮影領域)における人物の行動を推定する。なお、行動推定部16による推定は、人物消失後の行動を推定する場合、当該人物が登場するまで逐次行なわれる。その行動推定結果は、行動記録提示部17へ出力される。
行動記録提示部17は、行動推定部16から行動推定結果を受信すると、当該行動推定結果をデータとして記録するとともに、ユーザに向けて提示する。必要であれば、提示前にデータの加工が行なわれる。データ加工の一例としては、行動推定結果とその推定が行なわれた時刻とを組にしたデータを記録媒体に記録し、そのデータを時系列順に並べたリストを画面等に提示すること等が挙げられるが、これに限らない。行動記録データは、その要約がいわゆるライフログデータとして居住者や別居の家族に提示されたり、居住者のケアを行なっている医療従事者や介護従事者などに健康医療データとして提示されたりする。そうした情報を提示された人は、それによって生活行動を見直したり、病気等の兆候やそのときの健康状態のチェックに活かしたりする。なお、情報処理装置10自体が、行動記録データから何らかの兆候などを自動で認識して、しかるべき情報を選択ないし生成し、その情報を人に対して提示するようにしてもよい。
以上が、情報処理装置10の機能的な構成の一例についての説明である。なお、情報処理装置10には、コンピュータが組み込まれている。コンピュータには、CPU等の主制御手段、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等の記憶手段が具備される。また、コンピュータにはその他、キーボード、マウス、ディスプレイ、ボタン又はタッチパネル等の入出力手段、等も具備される。これら各構成手段は、バス等により接続され、主制御手段が記憶手段に記憶されたプログラムを実行することで制御される。
次に、図5を用いて、図2に示す情報処理装置10における処理の流れの一例について説明する。
この処理では、まず、カメラ11による現実空間の撮影が開始される(S101)。情報処理装置10は、人物抽出部12において、当該映像内から人物が映っている領域を検出し抽出する。
ここで、人物の映る領域が検出されなかった場合(S102でNO)、情報処理装置10は、エリア同定部13において、所定時間(現時点から所定時間前まで)の間に(例えば、3秒間)、人物の抽出があったか否かを判定する。この判定は、人物抽出部12から上記時間の間に、人物抽出領域情報を受信したか否かに基づいて行なわれる。
ここで、所定時間の間に人物が抽出されていなければ(S108でNO)、人物が継続的に映像内に映っていないことになるため、情報処理装置10は、再度、S102の処理に戻る。一方、所定時間の間に人物が抽出されていた場合には(S108でYES)、所定時間前から現時点までの間に人物が映像内から消失したことになる。この場合、情報処理装置10は、エリア同定部13において、人物消失エリアの同定を行なう(S109)。すなわち、エリア同定部13内部の記録を参照し、最後に受け取った人物抽出領域情報が示す領域が、どのエリアに含まれるかを特定し、そのエリアを人物消失エリアに同定する。そして、当該エリアを示す情報と、最後に受け取った人物抽出領域情報(最新時刻の人物抽出領域情報であり、人物消失時刻に相当)とを、人物消失エリア情報として行動推定モデル取得部15に出力する。
次に、情報処理装置10は、行動推定モデル取得部15において、人物消失エリアに対応する行動推定モデルを行動推定モデル保持部14から取得する(S110)。この取得は、エリア同定部13からの人物消失エリア情報に基づいて行なわれる。
行動推定モデルを取得すると、情報処理装置10は、行動推定部16において、当該行動推定モデルに基づいて、映像内から消失した人物の消失後の行動を推定する(S111)。行動推定は、上述した通り、例えば、行動推定時刻や人物消失時刻、消失後の経過時間、等(場合によっては、消失人物の特徴認識結果)を用いて行なわれる。
行動の推定が済むと、情報処理装置10は、行動記録提示部17において、行動推定部16からの行動推定結果を記録するとともに、それを提示する(S112)。その後、情報処理装置10は、人物抽出部12において、再度、上記同様の検出及び抽出処理を行なう。この結果、人物の映る領域が検出されなかった場合(S113でNO)、再度、S111の処理に戻り、行動の推定が行なわれる。すなわち、消失した人物が再度現れるまで、消失後の当該人物の行動の推定が継続して行なわれる。なお、S113の処理において、人物の映る領域が検出された場合(S113でYES)、情報処理装置10は、S104の処理に進む。すなわち、人物登場時の処理を実施する。
ここで、S102の処理において、人物の映る領域が抽出された場合(S102でYES)、人物抽出部12からエリア同定部13に向けて人物抽出領域情報が送られる。これを受けたエリア同定部13は、所定時間(当該情報を受信した時点から所定時間前まで)の間に(例えば、3秒間)、人物の抽出があったか否かを判定する。この判定は、人物抽出部12から上記時間の間に、人物抽出領域情報を受信したか否かに基づいて行なわれる。
ここで、所定時間の間に人物が抽出されていた場合(S103でYES)、当該人物は継続的に映像内に映っていることになるため、情報処理装置10は、再度、S102の処理に戻る。一方、所定時間の間に人物が抽出されていなければ(S103でNO)、エリア同定部13は、人物が映像内に登場したと解釈し、人物登場時の処理を行なう。
人物登場時には、情報処理装置10は、エリア同定部13において、人物登場エリアを同定する(S104)。すなわち、エリア同定部13内部の記録を参照し、人物抽出領域情報が示す領域が、どのエリアに含まれるかを特定し、そのエリアを人物登場エリアに同定する。そして、当該エリアを示す情報と、最後に受け取った人物抽出領域情報(最新時刻の人物抽出領域情報であり、人物登場時刻に相当)とを、人物登場エリア情報として行動推定モデル取得部15に出力する。なお、存在するのであれば、最後に受け取った人物抽出領域情報の一つ前の人物抽出領域情報(人物消失時刻に相当)をも人物登場エリア情報として行動推定モデル取得部15に出力する。
次に、情報処理装置10は、行動推定モデル取得部15において、人物登場エリアに対応する行動推定モデルを行動推定モデル保持部14から取得する(S105)。この取得は、エリア同定部13からの人物登場エリア情報に基づいて行なわれる。
行動推定モデルを取得すると、情報処理装置10は、行動推定部16において、当該行動推定モデルに基づいて、映像内に登場した人物の登場前の行動を推定する(S116)。
行動の推定が済むと、情報処理装置10は、行動記録提示部17において、行動推定部16からの行動推定結果を記録するとともに、それを提示する(S117)。その後、情報処理装置10は、再度、S102の処理に戻る。
以上が、情報処理装置10における処理の流れの一例についての説明である。なお、人物抽出部12が人物認識機能や服装認識機能等を備えている場合には、S102において、抽出された人物の特徴認識結果を人物抽出領域情報に加えて、エリア同定部13に出力する。このとき、人物抽出部12では、例えば、抽出された人物と、同一人物が抽出された場合に限り、人物抽出領域情報等をエリア同定部13に出力する。また、行動推定モデル取得部15は、S105及びS110において、人物消失エリア情報又は登場エリア情報と、特徴認識結果とに基づいて行動推定モデルを取得する。そして、行動推定部16は、S106及びS111において、当該取得された行動推定モデルに基づいて、映像内における人物の消失後又は登場前の行動を推定する。
ここで、図5のS111における行動の推定方法(人物消失時)について具体例を挙げて説明する。
例えば、図4に示す和室の引き戸に対応するエリアAが人物消失エリアであり、人物消失時刻が21時以降で朝6時前であり、消失した人物が消失前にあくびをしていたとした場合、行動推定部16は、「(消失した人物は)和室で寝ている」と推定する。また、例えば、図4に示すバス(お風呂)・トイレのドアに対応するエリアBが人物消失エリアであり、行動推定時刻が人物消失時刻の5分後であれば、行動推定部16は、「(消失した人物は)トイレに入っている」と推定する。更に時間が経過して、行動推定時刻が人物消失時刻の10分後になり、且つ人物消失時刻が18時以降24時前であれば、行動推定部16は、「(消失した人物は)お風呂に入っている」と推定する。
また、例えば、同じくエリアBが人物消失エリアであり、人物消失時刻が18時よりも前であり、消失した人物が掃除道具を持っていたとすれば、行動推定部16は、「(消失した人物は)トイレかお風呂を掃除している」と推定する。また、例えば、同じくエリアBが人物消失エリアであり、行動推定時刻が人物消失時刻の60分後であれば、行動推定部16は、「(消失した人物は)トイレ又はお風呂で苦しんでいる可能性がある」と推定する。また、例えば、図4に示す廊下に対応するエリアCが人物消失エリアであり、行動推定時刻が人物消失時刻の30分後であれば、行動推定部16は、「(消失した人物は)外出している」と推定する。また、例えば、図4に示すキッチンに対応するエリアDが人物消失エリアであり、行動推定時刻が夕方17時前後であり、消失した人物がこの家の家事を担当する人であれば、行動推定部16は、「(消失した人物は)夕食を準備している」と推定する。
次に、図5のS106における行動の推定方法(人物登場時)について具体例を挙げて説明する。
例えば、図4に示す和室の引き戸に対応するエリアAが人物登場エリアであり、人物登場時刻が朝6時以降8時以前であれば、行動推定部16は、「(登場した人物は)和室で起床した(その後リビングに現れた)」と推定する。また、例えば、図4に示すバス(お風呂)・トイレのドアに対応するエリアBが人物登場エリアであり、人物消失時刻と人物登場時刻の間が5分であれば、行動推定部16は、「(登場した人物は)トイレに入っていた」と推定する。人物消失時刻と人物登場時刻との間が30分であり、且つ人物消失時刻が18時以降24時以前であり、且つ消失前後の服装が異なっていれば、行動推定部16は、「(登場した人物は)お風呂に入っていた」と推定する。同じく人物消失時刻と人物登場時刻との間が30分であり、人物消失時刻が18時よりも以前であり、且つ消失前後の服装が同じであれば、行動推定部16は、「(登場した人物は)トイレかお風呂を掃除していた」と推定する。また、例えば、図4に示す廊下に対応するエリアCが人物登場エリアであり、人物消失時刻と人物登場時刻との間が30分であれば、行動推定部16は、「(登場した人物は)洋室A又は洋室Bで何かをしていた」と推定する。人物消失時刻と人物登場時刻との間が数時間であり、人物登場時刻が夕方17時以降であれば、行動推定部16は、「(登場した人物は)帰宅した」と推定する。また、例えば、図4に示すキッチンに対応するエリアDが人物登場エリアであり、人物消失時刻と人物登場時刻との間が1分であれば、行動推定部16は、「(登場した人物は)キッチンの冷蔵庫から何かを取ってきた」と推定する。
以上説明したように実施形態1によれば、未撮影領域における人物の行動を推定できる。これにより、例えば、カメラ等の数を減らすことができるため、コストの抑制を図れる。
より具体的には、実施形態1によれば、映像に映る範囲での行動は、従来同様に映像として記録し、映像に映らない範囲での行動は、対象人物が存在する場所を特定した上で定性的に推定し、それをデータとして記録する。人物の存在場所の特定は、映像内で人物が消失又は登場したエリアに基づいて行なう。この技術が、例えば、一般家庭に適用される場合には、消失後又は登場前に人物が存在しうる場所は限定的であるので、家の中心にあることの多い居間などにカメラを一台設置すれば、消失後又は登場前の人物の行動を推定できる。
また、一般家庭における多くの場所それぞれで起こりうる行動の種類は、比較的少ないため、場所(監視対象領域)が特定(ないし限定)されるのであれば、少ないカメラでも、人物の行動を高い精度で推定できる。なお、映像に映る範囲においても、人物が物体等の陰に隠れており、そこでの行動が映像に記録されないことがある。この場合にも、実施形態1の構成は、有効である。
(実施形態2)
次に、実施形態2について説明する。実施形態2においては、視野の重なりのない複数台のカメラと、それぞれのカメラのそばにあるセンサと、それぞれのカメラから離れた場所にあるセンサとを用いて、一般家庭における人物の行動を推定等する場合を例に挙げて説明する。
図6は、実施形態2に係わる監視対象領域の概要の一例が示されており、この場合、監視対象領域として4LDKの2階建て戸建ての間取りが示される。図6(a)は、1階の間取りを示し、図6(b)は、2階の間取りを示す。図6(a)に示す1階の間取りには、ソファとダイニングテーブルとが置かれたリビングダイニング、和室、キッチン、トイレ1、玄関、2階への階段がある。図6(b)に示す2階の間取りには、1階からの階段、洋室A、洋室B、洋室C、洗面所・バス、トイレ2がある。
図7は、実施形態2に係わる情報処理装置10の機能的な構成の一例を示す図である。なお、実施形態1を説明した図2と同一の符号のものは、実施形態1同様の機能を果たすため、その説明を省略するものもある。実施形態2では主に、実施形態1と相違する点について説明する。
情報処理装置10には、複数のカメラ21(21a及び21b)と、複数のセンサ20(20a〜20c)とが新たに設けられる。ここで、カメラ21は、実施形態1同様に、現実空間を撮影する。カメラ21aは、図6(a)に示す1階に設置されており、リビングの南側(図中下側)の壁際のテレビの上に設置される。この場合、図8(a)に示すような映像が撮影される。すなわち、カメラ21aは、この住居に住む家族がリビングダイニングで食事をしたり、くつろいだりする様子を撮影する。但し、カメラ21aでは、リビングダイニング以外の場所である和室、キッチン、トイレ1、玄関、2階への階段の様子を撮影することはできない。カメラ21bは、図6(b)に示す2階に設置されており、階段を上ったところの天井に設置される。この場合、図8(b)に示すような映像が撮影される。すなわち、カメラ21bは、洋室A、洋室B、洋室Cのドアと、トイレ2と洗面所・バスに続く短い廊下とを撮影する。
人物抽出部12は、カメラ21及びカメラ21bから映像を受け取り、この映像内から人物が映っている領域を検出し抽出する。なお、実施形態2に係わる人物抽出領域情報には、どのカメラ21の映像から撮影したものであるかを示すカメラ識別情報が含まれる。
行動推定モデル保持部14は、各エリアに対応した行動推定モデルを保持する。実施形態2に係わる行動推定モデルは、実施形態1を説明した条件情報に加えて更に、センサ20(20a〜20b)の出力値も条件情報として保持する。例えば、センサ20(20a〜20b)の出力値毎に上記条件情報を保持する。勿論、センサ出力値を含むこれら条件情報の内の少なくとも1つを変数として、それに対応した行動推定結果を算出する関数であってもよい。
行動推定部16は、カメラ21a又はカメラ21bにより撮影された映像内から人物が消失した後の行動又は人物が登場する前の行動を推定する。行動推定モデル取得部15からの行動推定モデルの中身に基づき、必要であれば、センサ20(20a〜20b)からのセンサ出力をも用いて推定を行なう。
センサ20(20a〜20c)は、現実空間における現象(例えば、音声)を計測ないし検知する。センサ20は、カメラ視野外の現実空間の状況を計測する役割を果たす。例えば、センサはマイクで構成され、カメラ視野外で起こる事象によって発生する音を計測する。マイクが二つあり、それぞれが指向性を持っているとすると、一方のマイクは、カメラ視野外の右側の現実空間で起こる事象の音を計測し、もう一方のマイクは、カメラ視野外の左側の現実空間で起こる事象の音を計測する、といった役割分担を行ってもよい。勿論、計測対象となる現実空間の状況は、カメラ視野外だけに限られず、カメラ視野内の現実空間の状況が含まれていてもよい。実施形態2においては、センサ20a及びセンサ20bは、カメラ21a及びカメラ21bに対応付けて設けられている。そして、センサ20aは、指向性のある2つのマイクであり、センサ20bは、指向性のない一つのマイクであるものとする。また、センサ20cは、カメラ21a及びカメラ21bとは離れた場所に設置されている。センサ20cは、例えば、カメラ21a及びカメラ21bの視野外の現実空間に置かれた家電製品や電灯のON/OFFを検知するセンサである。なお、センサ20は、例えば、人の存在を検知する人感センサであってもよい。複数の場所にそれぞれ独立して存在する複数のセンサであってもよい。
なお、実施形態2に係わる情報処理装置10における処理の流れは、基本的には、実施形態1を説明した図5と同様であるため、その詳細な説明については省略する。相違点を挙げて簡単に説明すると、人物抽出部12により人物が検出された場合、上述したカメラ識別情報を含む人物抽出領域情報がエリア同定部13に出力される。エリア同定部13においては、人物消失エリア又は人物登場エリアの同定を行なうが、このとき、カメラ識別情報を勘案して当該同定処理を行なう。具体的には、カメラ識別情報が同一である映像を用いて、人物消失エリアや人物登場エリアを同定することになる。また、行動推定部16による行動推定では、場合によっては、実施形態1で用いた情報に加えて更に、センサ20からのセンサ出力をも用いる。これにより、実施形態2に係わる行動推定処理が実施される。
ここで、図9を用いて、実施形態2に係わる行動の推定方法(人物消失時)について具体例を挙げて説明する。なお、図9(a)は、カメラ21aにより撮影された映像の一例であり、図9(b)は、カメラ21bにより撮影された映像の一例である。
例えば、図9(a)に示す玄関・トイレ1に対応するエリアEが人物消失エリアであり、当該方向に向いたマイク(センサ20a)が室内ドアの開閉音を録音した場合、行動推定部16は、「(消失した人物は)トイレに入った」と推定する。又は、エリアEの方向に向いたマイク(センサ20a)が屋外ドアの開閉音と鍵をかける音とを録音した場合には、行動推定部16は「(消失した人物が)外出した」と推定する。また、例えば、図9(a)に示すエリアFが人物消失エリアであり、当該エリアFの方向を向いたマイク(センサ20a)が水の音を録音した場合には、行動推定部16は、「(消失した人物は)キッチンで水仕事をしている」と推定する。また、例えば、キッチンに置かれたコーヒーメーカーのスイッチのONがセンサ20cの出力から判断された場合には、行動推定部16は、「(消失した人物は)キッチンでコーヒーをつくっている」と推定する。また、例えば、エリアFの方向を向いたマイク(センサ20a)が襖を開け閉めする音を録音した場合には、行動推定部16は、「(消失した人物が)和室に入った」と推定する。また、例えば、エリアFの方向を向いたマイク(センサ20a)が人が階段を登る音を録音した場合には、行動推定部16は、「(消失した人物は)2階へ行った」と推定する。
また、例えば、図9(b)に示すエリアG/H/Iが人物消失エリアであり、人物消失時間が21時以降で朝6時以前であり、且つ消失人物がその洋室A/B/Cを主に利用する場合、行動推定部16は、「(消失した人物は)自分の部屋で寝た」と推定する。また、例えば、エリアG/H/Iが人物消失エリアであり、人物消失時間が深夜0時以降で朝6時以前であり、消失人物がその洋室A/B/Cを主に利用しない人物であり、且つカメラ21bに対応するセンサ20bが咳き込む音を記録したとする。この場合、行動推定部16は「(消失した人物は)洋室A/B/Cの人物を心配して見に行った」と推定する。また、例えば、図9(b)に示すトイレ2、洗面所・バスに対応するエリアJが人物消失エリアであり、洗面台の電灯スイッチのONがセンサ20cの出力から判断された場合、行動推定部16は、「(消失した人物は)洗面台を使っている」と推定する。また、例えば、センサ20bが浴室の引き戸が閉まる音を記録した場合には、行動推定部16は、「(消失した人物は)お風呂に入った」と推定する。また、例えば、センサ20bがトイレ2のドアが閉まる音を記録した場合には、行動推定部16は、「(消失した人物は)トイレに入った」と推定する。また、例えば、図9(b)に示す階段に対応するエリアKが人物消失エリアであれば、行動推定部16は、「(消失した人物が)1階へ降りて行った」と推定する。
次に、実施形態2に係わる行動の推定方法(人物登場時)について具体例を挙げて説明する。
例えば、図9(a)に示す玄関・トイレ1に対応するエリアEが人物登場エリアであり、人物消失時刻と人物登場時刻との間が5分であれば、行動推定部16は、「(登場した人物は)トイレに入っていた」と推定する。また、例えば、人物消失時刻と人物登場時刻との間が30分であれば、行動推定部16は、「(登場した人物は)近所を散歩していた」と推定する。また、例えば、図9(a)に示す和室・キッチン・階段に対応するエリアFが人物消失エリアであり、図9(b)に示す階段に対応するエリアKが人物登場エリアであるとする。そしてまた、人物の消失から登場までの間にエリアFの方向を向いたマイク(センサ20a)が掃除機の音を記録し、人物消失時刻と人物登場時刻との間が10分であったとする。この場合、行動推定部16は、「(登場した人物は単に階段を登ったのではなく)階段を掃除していた」と推定する。
以上説明したように実施形態2によれば、視野の重なりのない複数台のカメラと、当該カメラに対応して設けられたセンサと、それぞれのカメラから離れた場所にあるセンサとを用いる。これにより、映像内からの人物の消失後の当該人物の行動の推定や、映像内へ登場した人物の当該登場前の行動の推定を更に詳細に行なうことができる。また、カメラ等の台数も、本構成を有さない場合よりも減らせるため、コストも抑えることができる。
なお、実施形態2においては、カメラが2台である場合を例に挙げて説明したが、カメラの台数はこれに限定されない。また、実施形態2においては、センサが、マイクや家電のON/OFFを検知する検知機構である場合を例に挙げて説明したが、センサの種類などはこれに限られない。
また、実施形態1及び2で述べた、人物消失エリア、人物登場エリア、行動推定時刻、人物消失時刻、人物登場時刻、再登場時間等の条件情報は、使用者の行動や室内の構造・配置に応じて自由に設定変更できる。又は、情報処理装置10を設置した際に、上述の行動推定結果の記録と実際の行動との差異からこれら情報を最適化する処理を行なうようにしてもよい。なお、行動推定の対象となる人物の年齢変化に応じて、これら情報を自動的に変化させたり、行動変化の結果を用いて自動学習させたりするようにしてもよい。
以上が本発明の代表的な実施形態の一例であるが、本発明は、上記及び図面に示す実施形態に限定することなく、その要旨を変更しない範囲内で適宜変形して実施できるものである。
例えば、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施態様を採ることもできる。具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。
(その他の実施形態)
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(又はCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (13)

  1. 撮像装置により現実空間が撮影された映像内から人物を含む人物抽出領域を抽出する抽出手段と、
    前記映像内に予め設定された1又は複数のエリアに対応して当該エリアに関する行動推定モデルを保持するモデル保持手段と、
    前記抽出手段により抽出された前記人物抽出領域の履歴に基づき前記映像内から人物が消失した前記エリアを同定する消失エリア同定手段と、
    前記同定された前記エリアに対応する行動推定モデルを前記モデル保持手段から取得する取得手段と、
    前記取得手段により取得された前記行動推定モデルを用いて前記映像内から消失した人物の消失後の行動を推定する行動推定手段と
    を具備することを特徴とする情報処理装置。
  2. 前記行動推定手段は、
    前記映像内から人物が消失した時刻、前記映像内から人物が消失した時刻からの経過時間、の少なくとも1つに基づいて前記行動を推定する
    ことを特徴とする請求項1記載の情報処理装置。
  3. 前記抽出手段により抽出された前記人物抽出領域の履歴に基づきに基づき前記映像内に人物が登場した前記エリアを同定する登場エリア同定手段
    を更に具備し、
    前記取得手段は、
    前記登場エリア同定手段により同定されたエリアに対応する行動推定モデルを前記モデル保持手段から取得し、
    前記行動推定手段は、
    前記取得手段により取得された前記行動推定モデルを用いて前記映像内に登場した人物の登場前の行動を推定する
    ことを特徴とする請求項1記載の情報処理装置。
  4. 前記行動推定手段は、
    前記映像内に人物が登場した時刻、前記映像内から人物が消失した時刻から該人物が該映像内に再度登場するまでの時刻、の少なくとも1つに基づいて前記行動を推定する
    ことを特徴とする請求項3記載の情報処理装置。
  5. 前記行動推定モデルは、
    前記行動の推定を行なう時刻、前記人物が消失した時刻、前記人物が登場した時刻、前記人物が消失した後、再度登場するまでの時間を示す再登場時間、の内の少なくとも1つの条件情報と、当該条件情報に対応した行動推定結果を示す行動推定結果情報とを対応付けたリストである
    ことを特徴とする請求項3記載の情報処理装置。
  6. 前記行動推定モデルは、
    前記行動の推定を行なう時刻、前記人物が消失した時刻、前記人物が登場した時刻、前記人物が消失した後、再度登場するまでの時間を示す再登場時間、の内の少なくとも1つを変数として当該変数に対応した行動推定結果を示す行動推定結果情報を算出する関数である
    ことを特徴とする請求項3記載の情報処理装置。
  7. 前記抽出手段は、
    前記映像内における人物の特徴を認識する人物認識機能を有し、
    前記モデル保持手段は、
    人物毎に前記エリアに関する行動推定モデルを保持し、
    前記取得手段は、
    前記同定された前記エリアと、前記人物認識の結果とに対応する行動推定モデルを前記モデル保持手段から取得する
    ことを特徴とする請求項1記載の情報処理装置。
  8. 前記行動推定手段は、
    前記映像内から人物が消失する前の該人物の特徴と、前記映像内に再度登場した人物の特徴とに基づいて、前記映像内に登場した人物の前記登場前の行動を推定する
    ことを特徴とする請求項7記載の情報処理装置。
  9. 前記モデル保持手段は、
    前記現実空間における音声を計測するセンサからの出力値毎に前記エリアに関する行動推定モデルを保持し、
    前記取得手段は、
    前記同定された前記エリアと、前記センサの出力値とに対応する行動推定モデルを前記モデル保持手段から取得する
    ことを特徴とする請求項1記載の情報処理装置。
  10. 前記行動推定手段により推定された行動の履歴を要約して提示、該履歴を前記人物のライフログデータとして提示、該履歴を健康医療データとして提示、の少なくとも1つを行なう記録提示手段
    を更に具備することを特徴とする請求項1記載の情報処理装置。
  11. 撮像装置により現実空間が撮影された映像内から人物を含む人物抽出領域を抽出する抽出手段と、
    前記映像内に予め設定された1又は複数のエリアに対応して当該エリアに関する行動推定モデルを保持するモデル保持手段と、
    前記抽出手段により抽出された前記人物抽出領域の履歴に基づき前記映像内に人物が登場した前記エリアを同定する登場エリア同定手段と、
    前記同定された前記エリアに対応する行動推定モデルを前記モデル保持手段から取得する取得手段と、
    前記取得手段により取得された前記行動推定モデルを用いて前記映像内に登場した人物の登場前の行動を推定する行動推定手段と
    を具備することを特徴とする情報処理装置。
  12. 情報処理装置における行動推定方法であって、
    抽出手段が、撮像装置により現実空間が撮影された映像内から人物を含む人物抽出領域を抽出する工程と、
    モデル保持手段が、前記映像内に予め設定された1又は複数のエリアに対応して当該エリアに関する行動推定モデルを保持する工程と、
    消失エリア同定手段が、前記抽出手段により抽出された前記人物抽出領域の履歴に基づき前記映像内から人物が消失した前記エリアを同定する工程と、
    取得手段が、前記同定された前記エリアに対応する行動推定モデルを前記モデル保持手段から取得する工程と、
    行動推定手段が、前記取得手段により取得された前記行動推定モデルを用いて前記映像内から消失した人物の消失後の行動を推定する工程と
    を含むことを特徴とする行動推定方法。
  13. コンピュータを、
    撮像装置により現実空間が撮影された映像内から人物を含む人物抽出領域を抽出する抽出手段、
    前記映像内に予め設定された1又は複数のエリアに対応して当該エリアに関する行動推定モデルを保持するモデル保持手段、
    前記抽出手段により抽出された前記人物抽出領域の履歴に基づき前記映像内から人物が消失した前記エリアを同定する消失エリア同定手段、
    前記同定された前記エリアに対応する行動推定モデルを前記モデル保持手段から取得する取得手段、
    前記取得手段により取得された前記行動推定モデルを用いて前記映像内から消失した人物の消失後の行動を推定する行動推定手段
    として機能させるためのプログラム。
JP2009241879A 2009-10-20 2009-10-20 情報処理装置、その行動推定方法及びプログラム Pending JP2011090408A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009241879A JP2011090408A (ja) 2009-10-20 2009-10-20 情報処理装置、その行動推定方法及びプログラム
US12/877,479 US20110091069A1 (en) 2009-10-20 2010-09-08 Information processing apparatus and method, and computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009241879A JP2011090408A (ja) 2009-10-20 2009-10-20 情報処理装置、その行動推定方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2011090408A true JP2011090408A (ja) 2011-05-06
JP2011090408A5 JP2011090408A5 (ja) 2012-12-06

Family

ID=43879314

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009241879A Pending JP2011090408A (ja) 2009-10-20 2009-10-20 情報処理装置、その行動推定方法及びプログラム

Country Status (2)

Country Link
US (1) US20110091069A1 (ja)
JP (1) JP2011090408A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9547926B2 (en) 2009-04-24 2017-01-17 International Business Machines Corporation Displaying nodes visually offset from associated components
JP2017191621A (ja) * 2016-03-30 2017-10-19 日本電気株式会社 解析装置、解析方法及びプログラム
WO2021111631A1 (ja) * 2019-12-06 2021-06-10 株式会社Plasma 分析装置、分析方法及びプログラム
WO2021131682A1 (ja) * 2019-12-23 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120090565A (ko) * 2011-02-08 2012-08-17 삼성전자주식회사 영상 데이터의 실감 효과 처리장치 및 방법
US10147290B2 (en) * 2015-05-05 2018-12-04 Andre Green Tent alarm system
EP3340609B1 (en) 2016-12-22 2024-03-27 Samsung Electronics Co., Ltd. Apparatus and method for processing image
CA3035191A1 (en) * 2019-02-28 2020-08-28 Fian Technologies Inc. Hand washing monitoring device, system and method
CN114124421B (zh) * 2020-08-31 2024-04-12 深圳市中兴微电子技术有限公司 Acl规则处理方法、装置、计算机设备和可读介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002373388A (ja) * 2001-06-14 2002-12-26 Matsushita Electric Works Ltd 人体検知装置
JP2004185431A (ja) * 2002-12-04 2004-07-02 Sekisui Chem Co Ltd 生活状況環境表現装置及び表現装置
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP2008052626A (ja) * 2006-08-28 2008-03-06 Matsushita Electric Works Ltd 浴室異常検知システム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6449593B1 (en) * 2000-01-13 2002-09-10 Nokia Mobile Phones Ltd. Method and system for tracking human speakers
JP3406965B2 (ja) * 2000-11-24 2003-05-19 キヤノン株式会社 複合現実感提示装置及びその制御方法
AU2003265284A1 (en) * 2002-07-19 2004-02-09 Dicut Inc. Face recognition system and method therefor
US20070237387A1 (en) * 2006-04-11 2007-10-11 Shmuel Avidan Method for detecting humans in images
JP4881766B2 (ja) * 2007-03-06 2012-02-22 パナソニック株式会社 カメラ間連結関係情報生成装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002373388A (ja) * 2001-06-14 2002-12-26 Matsushita Electric Works Ltd 人体検知装置
JP2004185431A (ja) * 2002-12-04 2004-07-02 Sekisui Chem Co Ltd 生活状況環境表現装置及び表現装置
JP2005199403A (ja) * 2004-01-16 2005-07-28 Sony Corp 情動認識装置及び方法、ロボット装置の情動認識方法、ロボット装置の学習方法、並びにロボット装置
JP2008052626A (ja) * 2006-08-28 2008-03-06 Matsushita Electric Works Ltd 浴室異常検知システム

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9547926B2 (en) 2009-04-24 2017-01-17 International Business Machines Corporation Displaying nodes visually offset from associated components
US10268346B2 (en) 2009-04-24 2019-04-23 International Business Machines Corporation Displaying nodes visually offset from associated components
US10503369B2 (en) 2009-04-24 2019-12-10 International Business Machines Corporation Displaying nodes visually offset from associated components
US10534501B2 (en) 2009-04-24 2020-01-14 International Business Machines Corporation Displaying nodes visually offset from associated components
US11073966B2 (en) 2009-04-24 2021-07-27 International Business Machines Corporation Displaying nodes visually offset from associated components
JP2017191621A (ja) * 2016-03-30 2017-10-19 日本電気株式会社 解析装置、解析方法及びプログラム
JP2019153296A (ja) * 2016-03-30 2019-09-12 日本電気株式会社 解析装置、解析方法及びプログラム
US11094076B2 (en) 2016-03-30 2021-08-17 Nec Corporation Analysis apparatus, analysis method, and storage medium
US11176698B2 (en) 2016-03-30 2021-11-16 Nec Corporation Analysis apparatus, analysis method, and storage medium
WO2021111631A1 (ja) * 2019-12-06 2021-06-10 株式会社Plasma 分析装置、分析方法及びプログラム
WO2021131682A1 (ja) * 2019-12-23 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム

Also Published As

Publication number Publication date
US20110091069A1 (en) 2011-04-21

Similar Documents

Publication Publication Date Title
JP2011090408A (ja) 情報処理装置、その行動推定方法及びプログラム
CN110543102B (zh) 一种控制智能家居设备的方法、装置及计算机存储介质
US10229571B2 (en) Systems and methods for determining whether an individual suffers a fall requiring assistance
US20230267728A1 (en) User interfaces to configure a thermal imaging system
US10095930B2 (en) System and method for home health care monitoring
JP6411373B2 (ja) 認識データ伝送装置、認識データ記録装置及び認識データ記録方法
US9741227B1 (en) Method and process for determining whether an individual suffers a fall requiring assistance
Leone et al. Detecting falls with 3D range camera in ambient assisted living applications: A preliminary study
Zouba et al. A computer system to monitor older adults at home: Preliminary results
Zouba et al. Multisensor fusion for monitoring elderly activities at home
Debard et al. Camera-based fall detection using real-world versus simulated data: How far are we from the solution?
US11925304B2 (en) Information processing method, information processing apparatus and computer-readable recording medium storing information processing program
GB2525476A (en) Method and device for monitoring at least one interior of a building, and assistance system for at least one interior of a building
JP5473750B2 (ja) 情報処理装置、情報処理方法及びプログラム
WO2021084949A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP2019185185A (ja) 画像処理システム及びプログラム
JP7388200B2 (ja) リハビリテーションを支援する情報の提供の方法およびリハビリテーション支援システム
US20160171378A1 (en) Time out-of-home monitoring
JP2020021237A (ja) 火災警報制御装置および火災警報システム
Debard et al. Camera-based fall detection using real-world versus simulated data: how far are we from the solution?
JP7465644B2 (ja) 監視システム、及び監視方法
JP7215481B2 (ja) コンピューターで実行されるプログラム、情報処理装置、および、コンピューターで実行される方法
CN112426100B (zh) 一种控制方法、装置及存储介质
Mailland et al. Original research A computer system to monitor older adults at home: Preliminary results
JP6899358B2 (ja) 宅内管理システム、宅内管理プログラム、および宅内管理方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121022

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20121022

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130726

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131202