JP2016143302A - 情報通知装置、方法、およびプログラム - Google Patents

情報通知装置、方法、およびプログラム Download PDF

Info

Publication number
JP2016143302A
JP2016143302A JP2015019905A JP2015019905A JP2016143302A JP 2016143302 A JP2016143302 A JP 2016143302A JP 2015019905 A JP2015019905 A JP 2015019905A JP 2015019905 A JP2015019905 A JP 2015019905A JP 2016143302 A JP2016143302 A JP 2016143302A
Authority
JP
Japan
Prior art keywords
notification
image
event
information
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015019905A
Other languages
English (en)
Inventor
智之 清水
Tomoyuki Shimizu
智之 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015019905A priority Critical patent/JP2016143302A/ja
Publication of JP2016143302A publication Critical patent/JP2016143302A/ja
Pending legal-status Critical Current

Links

Images

Abstract


【課題】カメラで捉えた通知対象者の通知先情報を簡便に特定する。
【解決手段】カメラが撮影した画像の解析結果から所定の事象を発見する事象発見手段と、事象毎にあらかじめ決められた通知対象者を特定する通知対象者特定手段と、事象が発見された画像が撮影された時刻の前後の時刻に撮影された画像を解析して、通知対象者があらかじめ決めた動きをしたかを識別する画像解析手段と、通知対象者を含む複数の者が保有する各端末のセンサによって記録されたセンサ情報から各端末を保有している者があらかじめ決めた動きをしたかを識別するセンサログ解析手段と、画像解析の結果として得られた行動内容および行動時刻と、同じ行動内容および行動時刻を示すセンサログを生成した端末を特定して、通知先の情報を取得する通知先取得手段と、通知対象者に通知する内容を決定するメッセージ生成手段と、通知先にメッセージを通知する通知手段と、を備える情報通知装置。
【選択図】 図2

Description

本発明は、画像の解析結果から所定の事象を発見した際に、所定の対象者に情報を通知する装置、方法およびプログラムに関する。
従来は、監視カメラの撮影画像を警備員や店員がチェックし、それらの人が現場へ行くことで、通知対象者に対して情報を通知していた。これに対し、例えば、人物が保持しているRFID(radio frequency identifier)タグの情報と当該人物を監視カメラでとらえた領域とを紐づけることで、誰がどういった行動をとったかを追跡する方法がある(例えば、特許文献1)。これにより、カメラ上で捉えた人物の特徴的な行動パターンを、当該人物と紐づけて記録したりすることができる。
特開2012−8802号公報
しかしながら、従来の方法は、比較的小規模な監視領域を想定しており、入り口でRFIDリーダーによる読み込みと、入り口で監視カメラによる撮影とを行うことで、両者の情報を紐づける。ここで「両者」とは、入り口で読み込まれたRFIDタグを持っている人物と、入り口で監視カメラによって撮影された人物とを意味する。しかし、入り口が明に設置されない商業施設や、人が絶えず大量に出入りするような大規模な公共機関などでは、RFIDリーダーとそこを通過する人の画像との紐づけは難しい。
また、大量に人がいることで、正確に追跡し続けることも困難であり、長時間滞在すればそれだけロストする可能性も高くなると言える。RFIDリーダーを入り口以外に設置する方法も考えられるが、その場合は、情報を通知したい対象者をカメラで発見してから、当該対象者がRFIDリーダーに近づき、かつその領域内でカメラが捉えている対象が十分に絞り込める程度の数でなければならない。
さらに言えば、現状では個人を識別する意図でRFIDタグの保持は普及をしているとは言い難く、タグを持たせ、管理することも課題である。以上より、施設の規模や人数が多くなるといったような場合は不向きであり、状況を選ぶ方法と言える。
そこで、本発明は、監視カメラを利用し、その利用状況によらず、ユーザが定常的に行うような一般的な行動特徴を見ることで、従来例のような制限なく、通知先を正しく特定する技術を提供することを目的とする。
上記目的を達成するため、本発明による情報通知装置は、
カメラが撮影した画像の解析結果から所定の事象を発見する事象発見手段と、
前記事象毎にあらかじめ決められた通知対象者を特定する通知対象者特定手段と、
前記事象が発見された画像が撮影された時刻の前又は後の時刻に撮影された画像であって、前記通知対象者が写っている画像を解析して、前記通知対象者があらかじめ決めた動きをしたかを識別する画像解析手段と、
前記画像解析手段が処理の対象とする時間およびカメラの画像を取得する画像取得手段と、
前記通知対象者を含む複数の者が保有する各端末のセンサによって記録されたセンサ情報から、各端末を保有している者が、あらかじめ決めた動きをしたかを識別するセンサログ解析手段と、
前記センサログ解析手段が処理の対象とする時間のセンサログを取得するセンサログ取得手段と、
センサログを生成した各端末に紐づけて登録されている通知先情報を取得する登録情報取得手段と、
前記画像解析手段の画像解析の結果と、前記センサログ解析手段のセンサログ解析の結果とを比較し、画像解析の結果として得られた行動内容および行動時刻と、同じ行動内容および行動時刻を示すセンサログを生成した端末を特定し、特定された端末に紐づく登録情報を取得して、前記通知対象者の通知先の情報を取得する通知先取得手段と、
前記事象発見手段が発見した前記事象について、前記通知対象者に対して通知する内容を決定するメッセージ生成手段と、
前記通知先取得手段が取得した前記通知先に対して、前記メッセージ生成手段が生成したメッセージを通知する通知手段と、
を備えることを特徴とする。
監視カメラで通知対象を発見した際、人が直接的に通知対象を同定・通知する作業を必要とせずに、通知対象に簡便に情報を通知できる技術を提供することができる。
実施形態1における情報通知装置の構成図である。 実施形態1における情報通知装置の機能ブロック図である。 実施形態1における全体的な処理の手順を示すフローチャートである。 実施形態1における通知先情報を取得する処理の手順を示すフローチャートである。 実施形態1における通知対象者の行動、発生時刻の例を示した図である。 実施形態1におけるセンサログの例を示した図である。 実施形態3における情報通知装置の構成図である。 実施形態3における通知対象者を特定する処理の手順を示すフローチャートである。 実施形態3における事象当事者、通知対象者の行動、発生時刻の例を示した図である。 実施形態3におけるセンサログの例を示した図である。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施形態の1つであり、本発明の技術的範囲を制限するものではない。
[実施形態1]
本実施形態の情報通知装置を構成するコンピュータ装置の構成について、図1のブロック図を参照して説明する。情報通知装置は単一のコンピュータ装置で実現してもよいし、必要に応じた複数のコンピュータ装置に各機能を分散して実現するようにしてもよい。複数のコンピュータ装置で構成される場合は、互いに通信可能なようにLocal Area Network(LAN)などで接続されている。
図1において、CPU(Central Processing Unit)101はコンピュータ装置100全体を制御する。ROM(Read Only Memory)102は変更を必要としないプログラムやパラメータを格納する。RAM(Random Access Memory)103は外部装置などから供給されるプログラムやデータを一時記憶する。
外部記憶装置104は、コンピュータ装置100に固定して設置されたハードディスクや、コンピュータ装置100から着脱可能なフレキシブルディスク(FD)やCompact Disk(CD)等の光ディスク、磁気や光カード、ICカード、メモリカードなどを含む。外部記憶装置104には、RAM103での保持に向かないような大きなサイズの情報などが保存されるものとする。本実施形態においては、後述するカメラ106で撮影した画像データなどが該当する。
カメラコントローラ105は、カメラ106の状態を管理・制御し、同カメラで撮影した画像データを取得する。本実施形態では少なくとも、カメラ106が撮影した画像データを取得し、外部記憶装置104に同データを記録するものとする。カメラ106は、カメラコントローラ105からの制御入力を受け、カメラコントローラ105に対して撮影した画像データを出力可能である。
カメラコントローラとの接続の仕方は限定するものではなく、例えばLANなどで接続すれば良い。カメラ側が同接続のインタフェースを保有し、制御入力やデータ出力を行えれば良い。
サービスインタフェース107は、ユーザが保有する端末114の位置や動きを示すセンサ115の情報、および当該ユーザのプロファイル情報などを管理したり利用したりするサービス108との間のインタフェースである。
本実施形態では、ユーザが少なくとも3次元加速度センサを内蔵した端末114を保有し、当該センサ出力の取得・利用とユーザプロファイルの取得・利用をサービスに対して許諾していることを想定する。サービスインタフェース107を介してサービスに接続し、当該サービスから該センサ情報とプロファイル情報を、ユーザの当該サービスに対する情報開示許諾の範囲内で取得する。
ある商業施設内で利用可能な、センサ内臓の端末を貸与して保持させる場合や、ユーザの持つ汎用端末にアプリケーションの形で配布し、当該アプリケーション経由で情報を取得する場合などが考えられるが、いずれかに限定するものではない。さらに、そのセンサ情報についても、必ずしも3次元加速度センサのrawデータを取得する必要はなく、端末があらかじめセンサ情報を混合し、端末の動きを意味のある単位で提供する場合は、そういった情報であっても良い。
入力インタフェース109は、ユーザの操作を受けるポインティングデバイスやキーボードなどの入力デバイス110とのインタフェースである。出力インタフェース111は、カメラ106で撮影した画像やプログラムの実行結果を出力するためのモニタなどの出力デバイス112とのインタフェースである。
システムバス113は101〜112の各ユニットを通信可能に接続する。端末114は、各ユーザが保有する端末でありネットワークを介してサービス108に接続し、センサなどの情報を提供する。センサ115は端末に内蔵される3次元加速度センサなどのセンサである。
<情報通知装置の基本構成>
次に、図2の機能ブロック図を参照して、本実施形態の情報通知装置の基本構成について説明する。
本実例では、後述する各機能部は、CPU101がROM102に格納された各プログラムをRAM103に展開し実行することでその機能を実現する。ただし、本実施形態は、これらの機能部をハードウェアで実現する情報処理装置によっても同様に実現可能である。また、ここに示す構成はハードウェアとソフトウエアの組み合わせによって実現できるものであって、一つの機能ブロックが一つのハードウェアに対応するものではない。
<事象発見部>
事象発見部201は、カメラ106が撮影した画像を解析しその解析結果から、情報通知のトリガとなる事象の発生を発見する。カメラで捉える事象とは、例えば、人が倒れた、手荷物を置き忘れた、手荷物を掏られた、迷子になっている、階段を回避したい、といったもの等が考えられる。
こういった事象の検出は、ユーザの特徴的な動き(パターン)の出現有無・出現順・頻度と、周囲の状況(コンテキスト)等から判別する。特徴的な動きは、一般的な施設利用者の動きをあらかじめ学習しておき、そうではない動きを行っている対象を判別した上で、その行動の詳細な特徴を解析する。一般的な利用者の動きについては、コンテキストによってその意味を判別するために、できれば、場所や時間帯毎に学習しておくことが望ましい。
なお、コンテキスを利用した判別のための知識(ルール)は、あらかじめ学習ないしユーザが初期情報として与えておく。階段の回避を例に挙げると、特徴的な動きとしては、立ち止まって顔向きを短い時間で何度も変えるような動作が該当候補となる。その上で、周囲の状況の情報としては、階段の近くである、当該人物は杖や車いすを利用している、あるいは年齢推定により高齢者と推定した、歩様が健常者とは異なるパターンを示している、などの確からしさを見て推定する。これらの情報はカメラで捉えた画像からの認識処理によって得る。
以上の要領で通知対象となる事象を発見する必要があるが、事象を発見する方法については、限定するものではない。事象を発見して、その内容と当事者を特定できれば良い。例えば、他の自動的な判別処理はもちろん、人が監視カメラ画像をチェックしておいて直接指示入力しても良い。
<通知対象者特定部>
通知対象者特定部202は、事象発見部201が発見した事象について、カメラ106が撮影した画像から、通知の対象を特定する。通知対象者は、事象の当事者(本人)の場合もあれば、関係者の場合もある。これは、発見する事象毎にあらかじめ決めておき、関係者であればカメラ106上で捉えた当該関係者を探す処理を実施する。本実施形態では、事象の当事者(本人)に通知する例を説明する。
<通知先取得部>
通知先取得部203は、通知対象者特定部202が特定した通知対象者に対応する通知先情報を取得する。通知先取得部203は、後述する206〜210の構成要素によって構成される。これらの要素を利用することで、後述する通知部205が通知するために必要な通知先情報を取得する。
<メッセージ生成部>
メッセージ生成部204は、事象発見部201が発見した事象、通知対象者特定部202が特定した通知対象者の属性、通知先取得部203が決めた通知先の確度等に応じた通知メッセージを生成する。
事象発見部201が発見した事象が階段の回避であれば、該当する階段の近くのエレベータやエスカレータを推奨するメッセージを生成する。
事象発見部201が、手荷物を置き忘れたり・掏られたりした可能性を発見した際は、素早くその気付きを与えるようなメッセージを生成する。
本実施形態では、こういったメッセージの定型を、事象や確度などにそれぞれ対応する形であらかじめ用意しておき、事象や確度などに応じてどのメッセージを使用するかを決定するものとする。例えば、通知先の確度が低い場合は、通知するメッセージの抽象度や隠ぺい度を上げることで、安全上問題のある情報が誤った通知先に通知された際の影響・リスクを低減する。なお、これらのメッセージは対話的な要素を持たせても良い。
複雑な対話を実現するのは困難であるが、発見できる事象が限定される本実施形態においては、通知したい内容はあらかじめ決まっていることが多い。従って、「はい・いいえ」や施設名や時間などの単語で答えられるような質問を中心とした、簡単な対話パターンをあらかじめ想定して通知を行うようにすれば良い。
<通知部>
通知部205は、通知先取得部203が取得した通知先に、メッセージ生成部204が生成したメッセージを通知する。本実施形態においては、ユーザが端末114を保有していることを想定しているので、当該端末に対する通知を行う。通知は起動中のアプリケーションに対する通知でも良いし、逆に当該アプリケーションがpullできる領域にデータを置くようにしても良い。あるいは、汎用的な電子メールの仕組みを利用した通知でも良い。
<通知先取得部の構成要素>
通知先取得部203に含まれる、画像解析部206、画像取得部207、センサログ解析部208、センサログ取得部209および登録情報取得部210の各構成要素について説明する。
<画像解析部>
画像解析部206は、通知対象者特定部202が特定した時点に、カメラ106が対象者を撮影した画像を起点として、当該画像の前後に時間を広げながら、当該広げられた時間の画像を解析し、ある行動の状態の発生を判別する。本実施形態においては、判別する行動は、「移動⇒停止への移行」および「停止⇒移動への移行」であるものとする。後述する画像取得部207が、前記起点の画像の前後の画像を取得した上で、対象者を追尾する。
「移動⇒停止への移行」、「停止⇒移動への移行」などの所定の行動が行われた時刻を「行動時刻」とも記載する。
追尾判定については、人体の検出結果を連続する時間の画像フレームに依存関係を踏まえた領域移動の連続性を見る。人体検出に失敗する時間が続くような場合は、その先の追尾の確度は低いので、通知先対象であるかの判定を行うには不向きであるため、追尾できた範囲で処理を行う。移動⇒停止、および停止⇒移動の判別は、ある閾値以上の時間、同位置に人体があるか否か等から判別すれば良い。少なくとも、後述するセンサログで判別可能である時間幅以上で、閾値は設定すれば良い。
なお、十分な精度を出す場合は、閾値を長くする。これにより、行動の出現機会は減るが、センサでの移動と停止の判断が難しいケースを除外でき、同一の行動をセンサログ上で判別する対象も減るため、精度の向上が見込める。通知する内容がより確実に対象者に到達する必要があるかどうかによって、すなわち必要な精度に応じて、閾値を設定しても良い。また、発見した行動に応じて動的に閾値を決めても良い。
なお、通知対象はカメラ106が一台で撮影可能な範囲を超えて移動することも考えられる。この場合は、複数のカメラ間の撮影範囲の関係をあらかじめ定義しておき、通知対象を捉えているカメラを同定し、当該カメラの画像を処理対象とする。この際、撮影の角度の変化の影響などから、必ずしも追尾しきれないこともある。その場合は、人体領域の検出失敗時と同様、処理対象としないようにする。
<画像取得部>
画像取得部207は、画像解析部206での処理の要求に応じて、外部記憶装置104に保存してある画像データを取得してくる。カメラをまたがった追尾も考えられるので、前記事象を撮影したカメラ以外のカメラであって、画像解析部206によって指定されたカメラが撮影した画像も取得し得る。
<センサログ解析部>
センサログ解析部208は、ユーザが保持する端末のセンサ情報のログを解析して、その時のユーザ行動を推定する。ここでは、画像解析部206が行動を発見した時刻の近傍のセンサログを、後述するセンサログ取得部209が取得したものを解析対象とする。本実施形態においては、解析するセンサデータは、後述するセンサログ取得部209が、サービス108からサービスインタフェース107を経由して取得する。
先に述べた通り、センサデータの形式については端末から取得できるデータの形式で良く、当該データの行動時の特徴をあらかじめ学習しておくことで行動発生の判別を行う。簡単な方法としては、3次元加速度センサデータを解析し、一般的な歩数計などで行われているような加速度センサを利用した歩数計測の方法を利用して、歩行中と停止を判別する等しても良い。
すなわち、通常の歩行時に計測される、重力加速度の3〜5倍程度の加速度変化を監視し、一定期間の該加速度変化が規則的に行われていることを検知した場合は、移動(歩行)しているとみなす。そして、それ以外は停止しているとみなす、といった方法で行えば良い。商品としてのパッケージ化が進んでおり導入が容易ということで歩数計を例に挙げたが、これに限定するものではない。
ここでは歩数をカウントできる必要はないので、重力方向に対して垂直な方向に働く加速度の変化を捉えて、移動⇒停止ないし停止⇒移動であることを推定しても良い。
<センサログ取得部>
センサログ取得部209は、センサログ解析部208が処理するセンサログデータを取得する。本実施形態では、前述したとおり、サービス108にユーザ端末上のセンサ情報は登録されており、そこから取得するものとする。
<登録情報取得部>
登録情報取得部210は、通知先取得部203が、カメラ上の行動と、センサ上の行動とが同時に生じているセンサデータの生成元を絞り込んだ際に、当該センサデータに紐づくユーザの登録情報を取得する。本実施形態においては、通知部205はユーザ端末上で動作中のアプリケーションに対して通知を行うので、登録情報としてユーザが保持している端末の識別情報を含むものとする。これにより、通知先取得部203は当該識別情報を出力する。
次に、本実施形態の情報通知装置における処理の手順について、図3および図4のフローチャートを参照して説明する。
<全体的な処理の流れ>
図3のフローチャートを参照して、201〜205各部による全体的な処理の流れを説明する。
ステップS301では、事象発見部201が、カメラで撮影した画像を外部記憶装置から取得して、事象発生の有無を判別処理する。
ステップS302では、ステップS301の処理結果として、事象を発見できた場合に、ステップS303へ移行する。発見できない間はステップS301に戻って、引き続き画像からの事象の判別処理を継続する。
ステップS303では、通知対象者特定部202は、事象発見部201が発見した事象に応じた通知対象者を特定する。本実施形態においては、通知対象者は事象の当事者本人とする。例えば、「手荷物を置き忘れた」という事象が発見されたら、通知対象者は手荷物を置き忘れた本人とする。
ステップS304では、通知対象者に対する通知先情報の取得処理を実施する。本ステップの処理の詳細は図4のフローを参照する形で後述するが、本実施形態においては、通知先情報として、通知対象者の保有する端末を識別する情報を取得する。
ステップS305では、ステップS304で通知先情報が取得できたかどうかによって処理を分岐させる。通知先情報が取得できた場合は、ステップS306へ移行する。通知先情報が取得できなかった場合は、ステップS308の例外処理へ移行する。
ステップS306では、メッセージ生成部204が、ステップS301で発見された事象や、ステップS303で特定された通知対象者といった状況に応じた通知メッセージを生成する。
ステップS307では、通知部205が、ステップS303で特定された通知先情報を元に、ステップS306で生成されたメッセージを通知し、本フローを終了する。本実施形態では、通知先情報として、端末の識別情報を取得したので、当該端末上のアプリケーションに対して情報を通知する。
ステップS308では、通知先情報が取得できなかった場合の例外処理を行う。例えば、本装置を利用した通知はあきらめて、一般的な係員に通知を促すような処理となる。なお、例外処理も発見した事象などによって変えても良く、例えば、緊急度や危険度の高い事象を発見した場合は、係員に通知を促すようにし、商業施設からの商品の推薦などを通知すべき事象を発見した場合は、なにもしないで終了しても良い。
次に、図4のフローを参照して、通知先取得部203における、通知先情報を取得する処理の流れを説明する。
ステップS401では、ステップS303で特定に利用した通知対象者を含む撮影画像を起点画像として取得する。当該画像と共に、画像の属性情報として撮影時刻情報、撮影したカメラの情報(例えば、識別番号、位置)なども合わせて取得しておく。
図5を用いて補足する。図5において501は時間の流れを示しており、t0が現在、t−1、t−2はそれぞれt0から見て前の時刻であり、t1はt0からみて後の時刻である。
502は各時刻における通知対象者の行動であり、504のユーザの行動によって事象の発生を発見する。通知対象者の行動をカメラ503が撮影している。カメラ503は図1の構成要素であるカメラ106のうちの一つである。図5に示す例では、本ステップにおいて、起点画像は時刻t0に撮影され、かつ、カメラ503によって撮影された旨の情報を合わせて取得する。
ステップS402では、ステップS401で取得された画像中における、通知対象者の領域情報を取得する。領域情報は、画像中の座標情報(例えば、通知対象者が含まれる矩形領域の左下頂点座標と右上頂点座標)などで良い。ただし、カメラ106が画角を変えられる場合は座標情報では追尾ができないので、当該画角の変化に応じて座標の変換をする必要がある。本実施形態では画角の変化はないものとする。
ステップS403では、画像取得部207が、ステップS401で取得した起点画像の直前に撮影された画像を取得する。追尾が続く限りこの処理は繰り返すことになる。図5の例で言えば、t−1、t−2の方向に時間を遡って画像を取得する。
ステップS404では、画像取得部207が、ステップS401で取得した起点画像の直後に撮影された画像を取得する。追尾が続く限りこの処理は繰り返すことになる。図5の例で言えば、t1の方向に時間を追って画像を取得する。
ステップS403とステップS404の分岐は、起点画像を中心として、時間範囲を前後に拡大しながら、通知対象の追尾を行うことを意味している。
ステップS405では、画像解析部206が、ステップS403ないしステップS404で取得した画像において、追尾に失敗していないかを判定する。失敗している場合は、登録情報を取得できなかったとして、処理を終了する。成功している間は、ステップS406へ移行する。
ステップS406では、画像解析部206が、ステップS403ないしステップS404で取得した画像中の追尾対象が、あらかじめ定めた特徴的な行動を行ったかどうかを判別する。特徴的な行動を発見した場合は、ステップS407へ移行する。発見できない場合は、ステップS403ないしステップS404へ移行して、次の画像の取得を繰り返す。
ステップS407では、画像解析部206が、発見した画像の撮影時刻を取得する。本実施形態での特徴的な行動は、上述した通り、「停止⇒移動への移行」および「移動⇒停止への移行」であり、それらの行動が502に示したものである。この行動の発生をステップS406で判別し、その発生時刻、すなわちt−2、t−1、t1といった時刻を、ステップS407で取得する。
ステップS408では、ステップS407で取得された時刻の近傍のセンサデータを、センサログ取得部209が取得する。
ステップS409では、センサログ解析部208が、ステップS408で取得されたセンサログについて、ステップS406で発見された特徴的な動きと同等の動きが行われているものをフィルタリングする。
図6を用いて補足すると601は、端末毎のセンサログデータを表している。説明上、別々のデータとして存在するように記載しているが、端末毎にデータを区別して処理可能であれば、データの持ち方については限定しない。602は、図5における時刻t−1と同じ時刻を示している。
603、604はそれぞれ、端末aと端末xにおける、時刻t−1の近傍のセンサデータであり、ステップS408で取得される。このうち603にはカメラによって発見された動きと同等の動きを示すセンサデータが含まれているとすると、端末aはt−1に関するフィルタリングでは残ることになる。一方、604にはカメラによって発見された動きと同等の動きを示すセンサデータが含まれていないとすると、t−1に関するフィルタリングでは端末xは残らない。
なお、ステップS407で取得された時刻の近傍のデータは、識別したい行動ごとに必要量が異なる。対象となる行動の画像上での発生時間幅を利用して動的に決めても良いし、あらかじめ決めておいても良い。その上で、隠れマルコフモデルなどの、時間伸縮を含んだパターンの識別手法を利用して識別するなどすれば良い。
ステップS410では、ステップS409でフィルタリングされた結果、センサデータが絞り込まれているかどうかを判定する。絞り込めている場合は、ステップS411に移行する。絞り込めなかった場合は、ステップS403ないしステップS404へ移行する。なお、絞り込めなかった場合は、ステップS409での処理は、直前までの絞り込み結果との論理積を取ってフィルタリングする。
すなわち、起点の画像から時間を拡大して取得した画像において、画像上の行動と、センサデータ上の行動とが、より多く、同じタイミングで一致しているものに絞り込んでいく。図6ではt−1について端末aが残ったが、当該端末aの時刻t+1やt−2におけるセンサログでも、同等の行動が発生していれば、それらの時刻に関するフィルタリングでも残り、それぞれの結果の論理積を取って端末aが残ることになる。
なお、このとき、一人のセンサデータに絞り込めた場合であっても、より確度を上げる場合には、ここでの判定をnoとするように処理しても良い。すなわち、十分な確度を得るまで絞り込めたと判定しないようにしても良い。例えば、ある一つの行動でセンサデータが絞り込めてしまった場合に、過去に遡ったところで一致しない場合が多くみられるのであれば、それは絞り込めたことにはならない、といった判定であっても良い。
画像解析部およびセンサログ解析部が処理するデータの時間範囲を拡大して結果の比較により確度を更新し、例えば、複数の行動において同一人物のセンサデータに絞り込まれて確度が閾値を超えたら、ここでの判定をyesとするようにしても良い。
具体的には、事象毎にあらかじめ定めておいた必要回数以上の一致が見られた場合で、かつ、あらかじめ定めておいた必要数以内のセンサデータに絞り込めた場合に、S410で絞り込めたと判定するようにする。
ステップS411では、登録情報取得部210が、当該センサデータに紐づいた登録情報を取得し、処理を終える。図6の端末aのセンサデータが残ったとすれば、端末aについての登録情報を取得する。
以上より、監視カメラ等で撮影した画像から特定した通知対象者に対して、店員や警備員などの人が直接的に実世界上の通知対象者を探し、通知するといった面倒な作業を必要とせずに、自動的に通知することができる効果が得られる。また、本実施形態においては、一般的にユーザが保有している端末とそのセンサを利用しており、かつ、通常行われる単純な行動を対象として処理を行っている。これにより、そういった単純な行動を識別する仕組みと、センサログを取得する仕組みを設けるだけで、監視カメラを設置記録できる既存の環境において、容易に適用できる利点もある。
[実施形態2]
上記実施形態1における、ステップS403とステップS404は、並列で処理を行っても良い。すなわち、S403〜S410までの処理を並列で行い、判定を抜けるまで繰り返す。なお、この際にS410で絞り込んだセンサデータを、各々のステップで次の処理対象として利用することで、処理の対象を限定していくようにしても良い。これにより、より高速に登録情報を取得できる効果が得られる。
例えば、時刻t−1については端末a,b,c〜xのセンサデータを取得し、フィルタリングした結果、端末a,b,cが残ったとする。この場合、時刻t−2については端末a,b,cのセンサデータのみを取得し、端末d〜xのセンサデータは取得せずに、フィルタリングを行う。
[実施形態3]
上記実施形態1では、通知対象者特定部202において、事象発見部201で発見した事象の当事者(本人)を通知対象者とする例を述べたが、事象の当事者の関係者が通知対象者であっても良い。例えば、事象発見部201で発見した事象が、迷子だった場合を考える。迷子かどうかの判別は、実施形態1と同様に、一般的な施設利用者の動きを学習しておき、そうではない動きを行っている対象を判別した上で、その行動の特徴と様々な周辺状況から推定する。
事象発見部201が発見の対象とする行動特徴としては、何かを探すような行動を繰り返すものが重要な成分であり、すなわち、顔向きを短い時間で何度も変えるようなものは該当候補である。加えて、周辺の状況としては、事象の当事者の画像的な特徴から推定した年齢が若いほど確度を上げ、周囲に人がある程度密集しているといった点等を識別のために利用する。
このような場合は、その関係者(親)と思われる人物を通知対象者とするため、通知対象者特定部202は当該通知対象者を画像上で特定する処理を行う。
図7を用いて実施形態3の情報通知装置を説明する。図2に示した実施形態1の情報通知装置と、図7に示す実施形態3の情報通知装置の違いは以下のとおりである。
図7に示すように、実施形態3の通知対象者特定部702は、画像解析部706と画像取得部707とを有する。
画像解析部706は、事象発見部201が事象を発見した時点に、カメラ106が事象当事者を撮影した画像を起点として、当該画像の前後に時間を広げながら、当該広げられた時間の画像を解析し、事象当事者とその周辺の人物の行動の内容を判別する。
画像取得部707は、画像解析部706での処理の要求に応じて、外部記憶装置104に保存してある画像であって、事象当事者が写っている画像のデータを取得してくる。画像取得部707も、画像取得部207と同様に、カメラをまたがった追尾に対応し得る。
図8を用いて実施形態3の情報通知装置が通知対象者を特定する処理を説明する。図3に示した実施形態1のステップS303では事象に応じた通知の対象者として事象当事者を特定するため、情報通知のトリガとなる事象を撮影した画像に通知対象者が写っている。
つまり、図3のステップS302で事象を発見したら、すぐにステップS303で通知対象者を特定することができ、すぐにステップS304へ移行し、すなわち図4のステップS401へ移行して通知対象者を撮影した起点画像を取得することができる。
一方、実施形態3では、事象当事者と通知対象者とは別人であり、事象を発見した画像に通知対象者は写っていない場合を想定しているため、図3のステップS303に相当する処理として、図8に示す処理を行う必要がある。
図8のステップS801では情報通知のトリガとなる事象を撮影した画像を取得する。
ステップS802では、ステップS801で取得された画像中における、事象当事者が写っている領域の情報を取得する。
ステップS803では時間を遡って事象当事者を含む画像を取得し、ステップS804では時間を追って事象当事者を含む画像を取得する。実施形態2と同様に、ステップS803とステップS804とを並列に処理しても良い。
ステップS805では、画像解析部706が、ステップS803またはステップS804で取得した画像において、事象当事者の追尾に失敗していないかを判定する。失敗している場合は、処理を終了する。失敗していない場合は、ステップS806へ移行する。
ステップS806では、画像解析部806が、ステップS803またはS804で取得した画像中の追尾対象(事象当事者)の周辺に写っている人物を解析し、通知対象者である可能性を有する者(以下、「通知対象候補者」とも記載する)かを判別する。通知対象候補者か否かを判別する基準(例えば、画像から推定される年齢、性別など)は事象に応じて予め決めておく。
ステップS807では、通知対象候補者を発見した場合は、ステップS808へ移行する。発見できない場合は、ステップS803またはS804へ移行して、次の画像を取得する。
ステップS808では、事象当事者および通知対象候補者の動きを解析し、通知対象候補者が通知対象者かを判別する。通知対象者か否かを判別する基準(例えば、画像から推定される年齢、性別や、事象当事者と通知対象候補者との間でのやりとり、事象当事者の服装、持ち物と通知対象候補者の服装、持ち物との類似性、関連性など)は事象に応じて予め決めておく。
ステップS809では、通知対象者を特定できた場合は図8の処理(図3のステップS303に相当)を終了し、図3のステップS304へ移行し、すなわち図4のステップS401へ移行する。発見できない場合は、ステップS803またはS804へ移行して、次の画像を取得する。
実施形態3においても、通知対象者を特定できた後の処理は、実施形態1と同様である。
ただし、本実施形態では前記の如く、通知対象者が事象の当事者ではなく、その当事者の関係者である。
この場合、通知先取得部203の構成要素である画像取得部207が取得する画像は、事象の当事者の関係者が写っている画像であれば良く、事象の当事者が写っている画像である必要はない。
同様に、画像解析部206が解析する画像は、その当事者の関係者が写っている画像であれば良く、事象の当事者が写っている画像である必要はない。
<通知対象者の特定>
具体的には、事象を捉えたカメラ106の画像が撮影された時刻を起点に、時間を遡って取得して、迷子を追尾しつつ、その周辺の人物について解析する。処理の内容としては、過去の時刻の画像において、迷子と行動を共にしている人物であって、画像上でコミュニケーション(会話や手をつなぐなど)と推定される行動を迷子と取っている人物であれば確度を上げるといったことから、通知対象者を特定する。
迷子と行動を共にしているかどうかは、追尾して捉えた周辺の人物を人体検出などの処理によって抽出し、当該人物が十分に長い時間、迷子との距離が一定以内であるような対象を探索する。
<通知先の取得>
迷子と行動を共にしている画像などに基づいて通知対象者を特定した後は、画像を解析して得られる画像中の通知対象者の行動と、多数の端末に対応するセンサログを解析して得られる端末を保持している者の行動とを比較して、通知先を取得する。前記の如く、実施形態3においても、通知対象者を特定した後の処理は、実施形態1と同様である。
図9を用いて補足する。図9において901は時間の流れを示しており、t0が現在、t−1、t−2、t−3、t−4はそれぞれt0から見て前の時刻であり、t1はt0からみて後の時刻である。
図8のステップS801は、図9の時刻t0に対応し、時刻t0のユーザの行動によって事象の発生を発見する。事象当事者904の行動をカメラ903aが撮影している。カメラ903aは図1の構成要素であるカメラ106のうちの一つである。
ステップS803では、画像取得部807が、ステップS801で取得した画像の直前に撮影された画像を取得する。追尾が続く限りこの処理は繰り返すことになる。図9の例で言えば、t−1、t−2の方向に時間を遡って画像を取得する。
ステップS804では、画像取得部807が、ステップS801で取得した画像の直後に撮影された画像を取得する。追尾が続く限りこの処理は繰り返すことになる。図9の例で言えば、t1の方向に時間を追って画像を取得する。
ステップS403とステップS404の分岐は、ステップS801で取得した画像を中心として、時間範囲を前後に拡大しながら、追尾対象(事象当事者904)の追尾を行うことを意味している。
ステップS805では、画像解析部806が、ステップS403ないしステップS404で取得した画像において、事象当事者904の追尾に失敗していないかを判定する。失敗している場合は、登録情報を取得できなかったとして、処理を終了する。成功している間は、ステップS806へ移行する。
ステップS806では、画像解析部806が、ステップS803またはS804で取得した画像中の追尾対象(事象当事者904)の周辺に写っている人物905を解析し、通知対象候補者かを判別する。通知対象候補者か否かを判別する基準(例えば、画像から推定される年齢、性別など)は事象に応じて予め決めておく。
ステップS807では、通知対象候補者を発見した場合は、ステップS808へ移行する。発見できない場合は、ステップS803またはS804へ移行して、次の画像を取得する。
ステップS808では、事象当事者904および人物905(この時点では、通知対象候補者)の動きを解析し、通知対象候補者が通知対象者かを判別する。
ステップS809で、人物905が通知対象者であると特定できた場合は、図8の処理(図3のステップS303に相当)を終了し、図3のステップS304へ移行し、すなわち図4のステップS401へ移行する。発見できない場合は、ステップS803またはS804へ移行して、次の画像を取得する。
本実施形態では、図4のステップS401で、事象当事者904と通知対象者と特定された人物905とが写っている時刻t−3の画像を起点画像として取得する。
ステップS402で、時刻t−3の画像から人物905が写っている領域を取得する。
ステップS404で、時間を追って人物905が写っている画像(時刻t−2、時刻t−1および時刻t0に、カメラ903bが撮影した画像)を取得する。
そして、時刻t−2、時刻t−1および時刻t0に、カメラ903bが撮影した画像を解析して得られる人物905の各時刻における行動内容と、同様の行動内容を対応する時刻に含むセンサログを、複数のセンサログの中から探し出す。探し出されたセンサログに紐づけられている登録情報から通知先(例えば、人物905のe−mailアドレス)を取得する。
なお、本実施形態のようなケース(事象当事者は迷子であり、画像から通知対象者と特定された者が保護者ではない可能性があるケース)では、通知メッセージにも配慮が必要である。確実に関係者を同定できるわけではなく、推定の域を出るものではないため、いきなり詳細に子供の迷子情報を通知するのは、安全面からも問題がある。
よって、まずは、子供が迷子になっていないかの注意を喚起するようなメッセージを送り、近くの案内センターや係員へ誘導するようなメッセージを対話的に送るなどして、確認や次の行動を促すような通知を行う。その後、最終的に当該人物が確かに迷子の関係者であることを確認できた段階で、詳細な情報を提供したり、保護した子供と引き合わせたりするような運用が必要である。
[実施形態4]
上記実施形態1における端末のセンサログは、同端末で動作するアプリケーションによって常にアップロードされている必要はない。一定間隔や一定量でまとめてアップロードしたり、事象発見部201で事象を発見した場合に、ある時刻部分だけ送るよう端末に指示したりするようにしても良い。不要なトラフィックや端末での負荷を抑える効果が得られる。
[実施形態5]
上記実施形態1におけるサービスは、ユーザ行動収集・利用を行う汎用の外部サービスであっても良い。当該サービスで獲得したユーザ端末のセンサログ情報を、サービスインタフェース107を介して獲得しても良い。これにより、より汎用的なサービスに対する情報提供の一環として、本発明を適用できるようになり、センサログの提供や、端末へのアプリケーション導入といった前提部分を実現しやすくなる。
[実施形態6]
上記実施形態においては、センサ115として、端末の動きを、保有しているユーザの動きとして捉えるため3次元加速度センサを想定したが、これに限るものではない。ユーザのカメラ上での行動と紐づけが可能なセンサ情報であれば良いため、ユーザの生体情報などのセンサであっても良い。例えば、ユーザの心拍や血圧を検知可能なセンサを内蔵し、当該センサをユーザが利用している場合、監視カメラ上で対象ユーザが急激に大きな動きを取った場合と、心拍や血圧の上昇とを対比して、対象ユーザを推定しても良い。
ただし、汎用的な端末を保持するだけでは獲得できる情報は限られ、一方で専用端末を保持する場合は保持する利用者が限られることも考えられるため、こういった情報だけでは絞り込めない可能性が高い。実際の運用上は、実施形態1で想定したような、端末を介したユーザの移動の情報などと併用することで、確度を上げるための情報として利用するといった利用の仕方が望ましい。
[実施形態7]
上記実施形態においては、サービス108で獲得したセンサログ全体を解析対象としたが、位置情報を利用して、解析対象のログを絞り込んでも良い。この場合は、端末ないし端末保有者が位置情報を特定可能なセンサを有しており、時刻毎の端末の位置座標が判明している必要がある。加えて、カメラ106が撮影範囲としている領域の座標情報もあらかじめ分かっている必要がある。
実施形態7の情報通知装置は、実施形態1の情報通知装置が備える構成要素に加えて、各カメラの撮影範囲のおよその位置を取得する撮影範囲取得部(図示せず)をさらに備える。
また、画像解析部は、通知対象者の行動内容および行動時刻と共に撮影範囲を取得し、センサログ解析部は、端末を保有する者の行動内容および行動時刻と共に行動位置を取得する。
両者が分かっている場合は、事象を捉えたカメラ106が撮影可能な範囲内にあるか否かによって、センサログ解析部208において処理対象とするセンサログを限定しても良い。これによって不要な解析処理を抑制し、素早く通知対象者のセンサログを絞り込むことができる効果が得られる。
図10を用いて実施形態7の内容を具体的に説明する。
センサログ1011は、時刻t−1における、端末aのセンサログであり、
センサログ1012は、時刻t−1における、端末bのセンサログであり、
センサログ1013は、時刻t−1における、端末cのセンサログである。
そして、
センサログ1011は、時刻t−1に、端末aがエリアBに位置し、
センサログ1012は、時刻t−1に、端末bがエリアBに位置し、
センサログ1013は、時刻t−1に、端末cがエリアBに位置したことを示している。
そして、時刻t−1に通知対象者を捉えたカメラ106の撮影可能な範囲がエリアBであるとすると、センサログ1011、1012、1013は全てセンサログ解析部208の処理対象となる。
次に、
センサログ1021は、時刻t−2における、端末aのセンサログであり、
センサログ1022は、時刻t−2における、端末bのセンサログであり、
センサログ1023は、時刻t−2における、端末cのセンサログである。
そして、
センサログ1021は、時刻t−2に、端末aがエリアAに位置し、
センサログ1022は、時刻t−2に、端末bがエリアAに位置し、
センサログ1023は、時刻t−2に、端末cがエリアCに位置したことを示している。
そして、時刻t−2に通知対象者を捉えたカメラ106の撮影可能な範囲がエリアAであるとすると、センサログ1021、1022はセンサログ解析部208の処理対象となるが、センサログ1023はセンサログ解析部208の処理対象とならない。
なお、図10では説明を簡略化するために、センサログの内容を「・・・エリアA・・・」のように描いた。
しかし、端末が有する位置情報を取得するためのセンサがGPS(Global Positioning System)センサなどである場合は、位置情報は緯度、経度を示す数値となる。そのため、その数値が示す位置がどのカメラの撮影可能な範囲内にあるか(第1のカメラの撮影可能範囲であるエリアA内なのか、第2のカメラの撮影可能範囲であるエリアB内なのかなど)を判断するための演算処理が必要となる。
同様に、図10では説明を簡略化するために、センサログの内容を「・・・停止から移動」のように描いた。
しかし、行動の内容を解析するために使用されるセンサが加速度センサなどである場合は、行動の内容を解析するために取得される情報は加速度の具体的な数値となる。そして、加速度が0であるなら「停止」と判断し、加速度が閾値以上であるなら「移動」と判断するなどの演算処理が必要となる。
[実施形態8]
上記実施形態においては、通知先取得部203は、登録情報取得部210で、端末の識別情報を取得したが、これに限るものではない。センサログに紐づくユーザの登録情報は、例えば、e−mailのアドレスなどであっても良い。この場合、あらかじめ登録してあるe−mailアドレスを利用するため、例えば、緊急時の連絡先を登録しておいても良い。
例えば、事象発見部201で発見する事象が、人が倒れるケースであれば、当該人物の突然倒れるような行動を発見した場合に、該人物の登録情報としてその家族や病院などを登録しておけば、速やかに危機を知らせるメッセージを通知することも可能になる。もちろん、通知先は一つに限定する必要はない。この例の場合であれば、倒れた本人端末にも、本人もしくは本人に意識が無い場合は救護している第三者(救急隊員など)向けに、倒れた本人の端末を正しく同定できていることを確認するメッセージを通知しても良い。
[その他の実施形態]
本発明の目的は前述した実施形態の機能を実現するソフトウエアのプログラムコードを記録した記録媒体を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUまたはMPU)が記録媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することとなり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM、DVDなどを用いることができる。
また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼動しているOperating System(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書きこまれた後、そのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
201 事象発見部
202 通知対象者特定部
203 通知先取得部
204 メッセージ生成部
205 通知部
206 画像解析部
207 画像取得部
208 センサログ解析部
209 センサログ取得部
210 登録情報取得部

Claims (8)

  1. カメラが撮影した画像の解析結果から事象を発見する事象発見手段と、
    前記事象毎にあらかじめ決められた通知対象者を特定する通知対象者特定手段と、
    前記事象が発見された画像が撮影された時刻の前又は後の時刻に撮影された画像であって、前記通知対象者が写っている画像を解析して、前記通知対象者があらかじめ決めた動きをしたかを識別する画像解析手段と、
    前記画像解析手段が処理の対象とする時間およびカメラの画像を取得する画像取得手段と、
    前記通知対象者を含む複数の者が保有する各端末のセンサによって記録されたセンサ情報から、各端末を保有している者が、あらかじめ決めた動きをしたかを識別するセンサログ解析手段と、
    前記センサログ解析手段が処理の対象とする時間のセンサログを取得するセンサログ取得手段と、
    センサログを生成した各端末に紐づけて登録されている通知先情報を取得する登録情報取得手段と、
    前記画像解析手段の画像解析の結果と、前記センサログ解析手段のセンサログ解析の結果とを比較し、画像解析の結果として得られた行動内容および行動時刻と、同じ行動内容および行動時刻を示すセンサログを生成した端末を特定し、特定された端末に紐づく登録情報を取得して、前記通知対象者の通知先の情報を取得する通知先取得手段と、
    前記事象発見手段が発見した前記事象について、前記通知対象者に対して通知する内容を決定するメッセージ生成手段と、
    前記通知先取得手段が取得した前記通知先に対して、前記メッセージ生成手段が生成したメッセージを通知する通知手段と、
    を備えることを特徴とする情報通知装置。
  2. 前記事象発見手段が発見する事象が、第一のユーザの特徴的な行動であり、
    前記通知対象者特定手段が、発見された前記事象に応じた通知対象者として第二のユーザを特定することを特徴とする請求項1に記載の情報通知装置。
  3. 前記第一のユーザと前記第二のユーザが同一のユーザであることを特徴とする請求項2に記載の情報通知方法。
  4. 前記センサログ解析手段が解析するセンサログが、ユーザが保有する端末の加速度センサが生成したデータであり、
    前記センサログ解析手段および前記画像解析手段が解析するあらかじめ決めた動きが、停止から移動への移行の動き、および移動から停止への移行の動きであることを特徴とする請求項1乃至3のいずれか1項に記載の情報通知装置。
  5. 前記事象発見手段が発見した事象毎にあらかじめ設定しておいた確度の閾値を満たすまで、前記通知先取得手段が、前記画像解析手段および前記センサログ解析手段が処理するデータの時間範囲を拡大して結果の比較により確度の更新を行うことを特徴とする請求項1乃至4のいずれか1項に記載の情報通知装置。
  6. 各カメラの撮影範囲のおよその位置を取得する撮影範囲取得手段をさらに設け、
    前記画像解析手段は、前記通知対象者の行動内容および行動時刻と共に前記撮影範囲を取得し、
    前記センサログ解析手段は、前記端末を保有する者の行動内容および行動時刻と共に行動位置を取得し、

    前記通知先取得手段は、前記画像解析手段が取得した前記撮影範囲に含まれる位置情報を有するセンサログを、前記センサログ解析手段の処理の対象とさせるようにしたことを特徴とする、請求項1乃至5のいずれか1項に記載の情報通知装置。
  7. カメラが撮影した画像の解析結果から所定の事象を発見する事象発見工程と、
    前記事象毎にあらかじめ決められた通知対象者を特定する通知対象者特定工程と、
    前記事象が発見された画像が撮影された時刻の前又は後の時刻に撮影された画像であって、前記通知対象者が写っている画像を解析して、前記通知対象者があらかじめ決めた動きをしたかを識別する画像解析工程と、
    前記画像解析工程において処理の対象とされる時間およびカメラの画像を取得する画像取得工程と、
    前記通知対象者を含む複数の者が保有する各端末のセンサによって記録されたセンサ情報から、各端末を保有している者が、あらかじめ決めた動きをしたかを識別するセンサログ解析工程と、
    前記センサログ解析工程において処理の対象とされる時間のセンサログを取得するセンサログ取得工程と、
    センサログを生成した各端末に紐づけて登録されている通知先情報を取得する登録情報取得工程と、
    前記画像解析工程における画像解析の結果と、前記センサログ解析工程におけるセンサログ解析の結果とを比較し、画像解析の結果として得られた行動内容および行動時刻と、同じ行動内容および行動時刻を示すセンサログを生成した端末を特定し、特定された端末に紐づく登録情報を取得して、前記通知対象者の通知先の情報を取得する通知先取得工程と、
    前記事象発見工程において発見された前記事象について、前記通知対象者に対して通知する内容を決定するメッセージ生成工程と、
    前記通知先取得工程において取得された前記通知先に対して、前記メッセージ生成工程において生成されたメッセージを通知する通知工程と、
    を含むことを特徴とする情報通知方法。
  8. 請求項1乃至6のいずれか1項に記載の情報通知装置の各手段としてコンピュータを機能させるためのプログラム。
JP2015019905A 2015-02-04 2015-02-04 情報通知装置、方法、およびプログラム Pending JP2016143302A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015019905A JP2016143302A (ja) 2015-02-04 2015-02-04 情報通知装置、方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015019905A JP2016143302A (ja) 2015-02-04 2015-02-04 情報通知装置、方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2016143302A true JP2016143302A (ja) 2016-08-08

Family

ID=56568750

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015019905A Pending JP2016143302A (ja) 2015-02-04 2015-02-04 情報通知装置、方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP2016143302A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019004434A (ja) * 2017-06-20 2019-01-10 富士通株式会社 情報処理方法、情報処理プログラム及び情報処理装置
WO2019017046A1 (ja) * 2017-07-21 2019-01-24 ソニー株式会社 情報処理装置、および情報処理方法
CN110692068A (zh) * 2017-05-31 2020-01-14 本田技研工业株式会社 技能信息处理系统、方法和装置
WO2021199315A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 監視装置、監視方法、および記録媒体

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110692068A (zh) * 2017-05-31 2020-01-14 本田技研工业株式会社 技能信息处理系统、方法和装置
JP2019004434A (ja) * 2017-06-20 2019-01-10 富士通株式会社 情報処理方法、情報処理プログラム及び情報処理装置
WO2019017046A1 (ja) * 2017-07-21 2019-01-24 ソニー株式会社 情報処理装置、および情報処理方法
CN110800313A (zh) * 2017-07-21 2020-02-14 索尼公司 信息处理设备和信息处理方法
JPWO2019017046A1 (ja) * 2017-07-21 2020-05-28 ソニー株式会社 情報処理装置、および情報処理方法
US11132553B2 (en) 2017-07-21 2021-09-28 Sony Corporation Information processing apparatus and information processing method
WO2021199315A1 (ja) * 2020-03-31 2021-10-07 日本電気株式会社 監視装置、監視方法、および記録媒体
JP7355228B2 (ja) 2020-03-31 2023-10-03 日本電気株式会社 監視装置、監視方法、およびプログラム

Similar Documents

Publication Publication Date Title
US10699541B2 (en) Recognition data transmission device
CN109271832B (zh) 人流分析方法、人流分析装置以及人流分析系统
Tabar et al. Smart home care network using sensor fusion and distributed vision-based reasoning
US9396400B1 (en) Computer-vision based security system using a depth camera
JP6814673B2 (ja) 移動経路予測装置、及び移動経路予測方法
JP7143912B2 (ja) 人物検出システム
CN109887234B (zh) 一种防儿童走失方法、装置、电子设备及存储介质
Muheidat et al. Context-aware, accurate, and real time fall detection system for elderly people
US11270562B2 (en) Video surveillance system and video surveillance method
JP2016143302A (ja) 情報通知装置、方法、およびプログラム
JP2018201176A (ja) アラート出力制御プログラム、アラート出力制御方法およびアラート出力制御装置
WO2018179202A1 (ja) 情報処理装置、制御方法、及びプログラム
KR20160074208A (ko) 비콘신호를 이용한 안전 서비스 제공 시스템 및 방법
CN110910606B (zh) 一种基于目标跟踪的儿童防走失方法和系统
Ramanujam et al. A vision-based posture monitoring system for the elderly using intelligent fall detection technique
WO2023283529A1 (en) System and method for providing evacuation monitoring and assistance
Torres et al. How feasible is WiFi fingerprint-based indoor positioning for in-home monitoring?
WO2018168604A1 (en) Method, system, storage medium and computer system for determining fall response of subject
Pinitkan et al. Abnormal activity detection and notification platform for real-time ad hoc network
US11341774B2 (en) Information processing apparatus, data generation method, and non-transitory computer readable medium storing program
CN112562260B (zh) 防走失方法及装置
US20220406069A1 (en) Processing apparatus, processing method, and non-transitory storage medium
JP7264065B2 (ja) 被監視者監視支援システムおよび被監視者監視支援方法
KR102544147B1 (ko) 영상분석 기반 1인 낙상 감지 시스템 및 방법
CN111104845B (zh) 检测设备,控制方法及计算机可读记录介质