JP6720010B2 - 情報処理装置、情報処理方法、およびプログラム - Google Patents

情報処理装置、情報処理方法、およびプログラム Download PDF

Info

Publication number
JP6720010B2
JP6720010B2 JP2016148697A JP2016148697A JP6720010B2 JP 6720010 B2 JP6720010 B2 JP 6720010B2 JP 2016148697 A JP2016148697 A JP 2016148697A JP 2016148697 A JP2016148697 A JP 2016148697A JP 6720010 B2 JP6720010 B2 JP 6720010B2
Authority
JP
Japan
Prior art keywords
worker
monitoring
area
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016148697A
Other languages
English (en)
Other versions
JP2018019278A (ja
Inventor
智之 清水
智之 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016148697A priority Critical patent/JP6720010B2/ja
Publication of JP2018019278A publication Critical patent/JP2018019278A/ja
Application granted granted Critical
Publication of JP6720010B2 publication Critical patent/JP6720010B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、情報処理装置、情報処理方法、およびプログラムに関し、特に、現場の作業員による監視作業を支援するために用いて好適なものである。
事件・事故の予防や早期発見・対応を目的として、警察や警備会社の作業員による監視作業が行われている。一方、監視カメラにより撮像された画像のモニタリングを中心とした監視を行うための監視システムがある。これらを補完的に活用することにより、より効率的な監視を実現できる。特許文献1では、店内を巡回する作業員が巡回していない領域(例えば、店内を巡回する作業員が通過した後の領域)を撮像するカメラの優先度を上げ、当該カメラで撮像された画像を優先的に転送する技術が開示されている。
特開2007−221693号公報
特許文献1のように、作業員が監視している領域以外の部分を、カメラで撮像された画像により補って監視を行う技術は知られている。しかし、現場で生じる様々な状況に対する対応や反応により、本来監視すべき領域を作業員が定常的に監視できない状態が生じる場合がある。例えば、雑踏の監視であれば作業員は、客から道を尋ねられて対応したり、異音や異臭があるために周囲を見回したり、大きな音の発生個所を注視したり、客同士の小競り合いや客の異常行動を取り締まったり、老人や子ども、けが人等の介助をしたりする。このように、本来監視すべき領域を作業員が定常的に監視できない状態は、様々な状況で発生し得る。このような現場で生じた様々な事象に作業員が対応することで、本来監視すべき領域に対する作業員の監視力が低下する。
本発明は、このような問題点に鑑みてなされたものであり、本来監視すべき領域を作業員が定常的に監視できない状態になっても、当該領域の監視を支援できるようにすることを目的とする。
本発明の情報処理装置は、作業員が監視する領域の情報を取得する第1の取得手段と、前記作業員が前記領域を定常的に監視できている状態であるか否かを示す情報を取得する第2の取得手段と、前記第2の取得手段により、前記作業員が前記領域を定常的に監視できている状態でないことを示す情報が取得されると、当該領域の少なくとも一部を撮影することを撮影装置に指示する指示手段と、を有することを特徴とする。
本発明によれば、本来監視すべき領域を作業員が定常的に監視できない状態になっても、当該領域の監視を支援することができる。
監視システムの構成を示す図である。 監視サーバの構成を示す図である。 監視カメラの撮影領域を示す図である。 監視カメラの撮影可能領域を示す図である。 定常監視領域を示す図である。 監視カメラの構成を示す図である。 装着型デバイスの構成を示す図である。 監視システムに用いるコンピュータシステムの構成を示す図である。 監視サーバにおける第1の処理を説明するフローチャートである。 監視サーバにおける第2の処理を説明するフローチャートである。 監視カメラのパン角度を説明する図である。
以下、添付の図面を参照して実施形態を説明する。
<第1の実施形態>
まず、第1の実施形態を説明する。
図1は、本実施形態の監視システムの構成の一例を示す図である。
監視システムは、監視カメラ101a、101b、装着型デバイス103a、103b、無線通信基地局104、ネットワーク105、監視サーバ106、記憶装置107、およびモニタ108a、108bを備える。現場作業員102a、102bは、現場で監視を行う作業員である。尚、現場作業員102a、102bには、監視員、警察官、警備員が含まれる。モニタ監視員109は、モニタ108a、108bに表示された画像を監視(モニタリング)する者である。
監視カメラ101a、101bは、画像を撮影する機能を有する。監視カメラ101a、101bは、ネットワーク105を介して、監視サーバ106に接続され、撮影した画像を監視サーバ106に送信する機能を有する。また、監視カメラ101a、101bは、監視サーバ106から、カメラ制御のための情報を受信し、受信した情報に応じて、カメラ本体の撮影方向、焦点距離、および画角等を制御する機能を有する。本実施形態では、簡単のため、監視カメラ101a、101bは、少なくとも水平方向に動作する機能(パン機能)を有するものとする。
尚、監視カメラ101a、101bの各々のスペック(撮影可能距離、画角、左右のパン角度・速度等)、設置位置、および設置方向は、予め監視サーバ106が記憶装置107を用いて、カメラ設置情報として設定・管理しておく。図1に示すように、監視システムには、複数の監視カメラ101a、101bが配置される。
装着型デバイス103a、103bは、現場作業員102a、102bが装着するデバイスである。装着型デバイス103a、103bは、当該装着型デバイス103a、103bを装着した現場作業員102a、102bの位置、向き、および動きを計測する機能を有する。本実施形態では、装着型デバイス103a、103bは、少なくとも、3次元加速度センサ、地磁気センサ、およびGPS(Global Positioning System)を備えるものとする。3次元加速度センサは、装着型デバイス103a、103b(現場作業員102a、102bの頭(視界))の動きを計測する。地磁気センサは、装着型デバイス103a、103b(現場作業員102a、102bの顔(視界))が向いている方向を計測する。GPSは、装着型デバイス103a、103b(現場作業員102a、102c)の位置を計測する。ただし、これらのセンサ類は別の同種のものに置き換えても良く、その手段は前述したものに限定されない。例えば、位置情報は、無線通信基地局104からの電波強度を利用した三角測量による位置情報を用いても構わない。
また、装着型デバイス103a、103bは、無線通信基地局104およびネットワーク105を介して監視サーバ106に接続される。装着型デバイス103a、103bは、装着型デバイス103a、103bにより計測された、現場作業員102a、102bの位置、動き、および向きの情報と、当該装着型デバイス103a、103bの識別情報とを監視サーバ106に送信する機能を有する。本実施形態では、装着型デバイス103a、103bは、これらの情報を、一定時間毎に監視サーバ106に送信するものとする。監視サーバ106は、装着型デバイス103a、103bから受信した情報を、記憶装置107を用いて管理する。
無線通信基地局104は、装着型デバイス103a、103bとの間で無線通信を行う機能を有する。本実施形態では、無線通信基地局104は、一般的な公衆携帯端末の基地局とする。ただし、無線通信基地局104は、これに限るものではなく、例えば、監視対象が商業施設やスポーツ施設等の場合、無線通信基地局104は、監視対象の施設に設置された無線LAN基地局であっても構わない。無線通信基地局104が、監視対象の施設に設置された無線LAN基地局であれば、無線通信基地局104の電波強度や設置位置の詳細な情報が入手しやすく、前述したような電波強度を用いた三角測量による位置情報の利用等が容易に実施可能となる。
監視サーバ106は、本実施形態の監視システムの機能を統括するサーバである。監視サーバ106は、少なくとも、以下の1)〜6)の機能を有する。尚、以下の説明では、現場作業員102a、102bが本来監視すべき領域を必要に応じて定常監視領域と称する。また、現場作業員102a、102bの定常監視領域を定常的に監視できている状態を必要に応じて定常監視状態と称し、現場作業員102a、102bの定常監視領域を定常的に監視できていない状態を必要に応じて非監視状態と称する。
1)監視カメラ101a、101bから画像を受信する画像受信サーバ機能。
2)監視カメラ101a、101bの動作をコントロールするカメラ制御機能。
3)カメラ設置情報に基づいて、各現場作業員102a、102bの定常監視領域を撮影することが可能な監視カメラを決定する機能。
4)装着型デバイス103a、103bの計測情報に基づいて、各現場作業員102a、102bの監視状態(定常監視状態か非監視状態か)を判定する機能。
5)作業員配置情報に基づいて、各現場作業員102a、102bの定常監視領域を特定する機能。
6)監視カメラ101a、101bで撮影された画像をモニタ108a、108bの少なくとも何れか1つに出力する機能。
監視サーバ106は、これら以外の機能を有していてもよい。尚、監視サーバ106は、モニタ監視員109や本実施形態の監視システムの管理者が当該監視システムを操作するための各種の入出力手段を有する。
図2は、監視サーバ106のモジュール構成の一例を示す図である。
画像受信部201は、監視カメラ101a、101bから画像データを受信する。監視カメラ101a、101bから受信した画像は、出力部208によって、モニタ108a、108bの少なくとも1つに出力され、当該モニタで表示される。画像の出力先となるモニタは、例えば、監視サーバ106に対して予め設定することができる。また、例えば、モニタ監視員109等からの要求に応じて、画像の出力先となるモニタを変更してもよい。
監視カメラ管理部202は、監視カメラ101a、101b毎にカメラ設置情報を管理する。カメラ設置情報は、前述した通り、監視カメラ101a、101bの設置位置の情報を含み、監視カメラ101a、101bと現場作業員102a、102bとの距離および位置関係を求めるために利用される。本実施形態では、前述した通り、現場作業員102a、102bの位置は、装着型デバイス103a、103bが有するGPSによって計測される。このため本実施形態では、カメラ設置情報に含まれる、監視カメラ101a、101bの設置位置も、GPSで計測される地理座標系を利用する。
また、監視カメラ管理部202は、監視カメラ101a、101b毎の撮影可能領域を管理対象とする。本実施形態では、監視カメラ管理部202は、カメラ設置情報に含まれる、各監視カメラ101a、101bのスペック(画角、撮影可能距離、パン角度)、設置位置、および設置方向に基づいて、当該監視カメラ101a、101bの撮影可能領域を特定する。本実施形態では、監視カメラ101a、101bの撮影可能領域は、地理座標系上の範囲として特定される。
図3は、監視カメラ101とその撮影領域301の一例を概念的に示す図である。撮影領域301は、監視カメラ101のスペックから決定される。本実施形態では、監視カメラ101は、パン機能を有する。従って、監視カメラ101の水平方向の動きを含めた撮影可能領域401は、図4に示すようになる。尚、監視カメラ101の撮影可能領域の形状および大きさは、図4に示すものに限定されない。監視カメラ101は、全天周カメラや360°旋回型のカメラであっても良く、撮影可能領域の形状および大きさは、監視カメラ101のスペックに応じて決定される。即ち、監視カメラ101で撮影可能な領域を、当該監視カメラ101のスペックに基づいて、撮影可能領域として管理すれば良い。
作業員管理部203は、現場作業員102a、102b毎の作業員配置情報を管理する。作業員配置情報は、装着型デバイス103a、103bの識別情報と、定常監視状態で装着型デバイス103a、103bにより計測された現場作業員102a、102bの位置、動き、および向きの情報とを含む。作業員配置情報は、後述する計測情報処理部204で、現場作業員102a、102bの監視状態が定常監視状態であると判定された場合に作成される。作業員管理部203は、一定の間隔で、作業員配置情報を直前の内容と比較し、変更があれば随時更新を行う。この間隔は、監視対象に応じて、予めシステムに設定しておくものとする。例えば、監視対象が一定領域に固定的であれば、現場作業員102a、102bも固定的に配置されることが考えられる。このような場合は、作業員配置情報の変更頻度はさほど多くはないため、前記間隔が短い必要はない。
また、作業員管理部203は、現場作業員102a、102b毎の定常監視領域も管理対象とする。本実施形態では、作業員管理部203は、一般的な作業員が監視可能な領域の大きさおよび形状の情報を予め保持しておく。そして、作業員管理部203は、作業員配置情報に含まれる現場作業員102a、102bの位置および向きと、当該領域の大きさおよび形状とに基づいて定常監視領域を決定する。例えば、作業員管理部203は、現場作業員102a、102bの位置から現場作業員102a、102bの向きの方向に配置した当該領域を定常監視領域として決定する。図5は、定常監視領域の一例を概念的に示す図である。ここでは、一般的な作業員が監視可能な領域503が扇形の形状を有する場合を例に挙げる。この場合、作業員配置情報に含まれている現場作業員102a、102bの位置501に扇形の基点が位置するように、作業員配置情報に含まれている向き502(顔(視界)の向き)の方向に領域503を配置した領域を、当該現場作業員の定常監視領域とする。
計測情報処理部204は、装着型デバイス103a、103bにより計測された情報(現場作業員102a、102bの位置・動き・向きの情報)に基づいて、各現場作業員102a、102bの監視状態を判定する。本実施形態では、計測情報処理部204は、定常的な監視中の頭の向きおよび移動量の範囲を予め学習しておく。計測情報処理部204は、装着型デバイス103a、103bにより計測された情報に基づいて、当該装着型デバイス103a、103bを装着している現場作業員102a、102bの頭の向きおよび移動量を導出する。そして、計測情報処理部204は、導出した頭の向きおよび移動量が、予め学習しておいて範囲を超えない場合、当該現場作業員102a、102bの監視状態は、定常監視状態であると判定する。一方、導出した頭の向きおよび移動量の少なくとも何れか一方が、予め学習しておいた範囲を超える場合、計測情報処理部204は、当該現場作業員102a、102bの監視状態は、非監視状態であると判定する。予め学習しておいた範囲としては、例えば、非監視状態でないときに測定された現場作業員102の頭の向きおよび位置を基準とする所定の範囲が挙げられる。また、この監視状態の判定には、例えば、一般的な回帰分析やベイジアンネットワーク等を利用した2値的な判別モデル化の技術を利用することができる。尚、この監視状態の判定は、時間的な遅延が小さいのが好ましいため、比較的短い間隔で継続的に実施する。
監視カメラ制御部205は、非監視状態の現場作業員の定常監視領域の少なくとも一部を監視領域として含めるように、監視カメラ101a、101bの少なくとも何れか1つの動作を制御する。前述した通り、本実施形態においては、監視カメラ101は、パン機能を有する。従って、監視カメラ制御部205は、監視カメラ101a、101bの水平方向の向きの制御を行う。そのために、監視カメラ制御部205は、各監視カメラ101a、101bの撮影可能領域と、非監視状態の現場作業員の定常監視領域とを比較する。そして、監視カメラ制御部205は、当該定常監視領域のうち、予め設定した割合以上の領域を撮影することが可能な監視カメラを特定する。監視カメラ制御部205は、特定した監視カメラのうち、現場作業員の位置に最も近い位置にある監視カメラを検索し、当該検索した監視カメラの向きを制御する。
記憶装置管理部206は、記憶装置107へのデータ入出力を管理する。
通信部207は、監視カメラ101a、101bおよび装着型デバイス103a、103bとの通信を行う。
出力部208は、監視カメラ101a、101bから受信した画像をモニタ108a、108bの少なくとも何れか1つへ出力する。本実施形態では、出力部208は、非監視状態の現場作業員の定常監視領域の画像を、その他の画像よりも優先して出力する。また、本実施形態では、出力部208は、非監視状態の現場作業員の定常監視領域の画像であることが分かるように、当該画像に、他の監視カメラから受信した画像とは区別可能な情報を付加して出力する。例えば、出力部208は、非監視状態の現場作業員の定常監視領域の画像に、非監視状態の現場作業員の定常監視領域を撮影中であることを示すメッセージを重畳させたり、枠を付加したりするといった処理を行った上で、当該画像を出力する。
操作部209は、監視サーバ106を利用する監視者に対して操作や表示等のユーザインタフェースを提供する。
図6は、監視カメラ101のモジュール構成の一例を示す図である。尚、監視カメラ101a、101bは、同じ構成で実現できるので、図6では、監視カメラ101a、101bを監視カメラ101と表記する(以下の説明でも必要に応じて同様とする)。
撮影部601は、画像情報を取得する。撮影部601は、少なくとも、レンズおよび撮像素子を有する。撮影部601は、画像(動画像や静止画像)を撮影するための構成を有していればよく、当該構成は公知の技術で実現することができる。従って、ここでは、その詳細な説明を省略する。
駆動制御部602は、監視カメラ101の撮影動作を制御する。その際、駆動制御部602は、撮影範囲を決定するための駆動機構を制御する。本実施形態では前述した通り、監視カメラ101はパン機能を有する。従って、駆動制御部602は、監視カメラ101の水平方向に動作させる駆動機構を動作させ、監視カメラ101のパン角度を制御する。尚、例えば、監視カメラ101が、パン機能、チルト機能、および画角により撮影範囲を変更することができる場合、駆動制御部602は、パン角度、チルト角度、および画角の少なくとも1つを制御する。
通信部603は、通信インタフェースであり、ネットワーク105を介して監視サーバ106との通信を行う。本実施形態では、監視カメラ101と監視サーバ106とが有線で接続される場合を想定しているが、監視カメラ101と監視サーバ106との接続形態はこれに限定するものではない。例えば、通信部603は、無線通信基地局104と通信可能な無線通信インタフェースであっても良い。
図7は、装着型デバイス103のモジュール構成の一例を示す図である。尚、装着型デバイス103a、103bは、同じ構成で実現できるので、図7では、装着型デバイス103a、103bを装着型デバイス103と表記する(以下の説明でも必要に応じて同様とする)。
姿勢計測部701は、装着型デバイス103を装着している現場作業員の向きおよび動きを計測するためのセンサモジュールを有する。本実施形態では、前述した通り、姿勢計測部701は、少なくとも、頭(視界)の動きを計測するための3次元加速度センサと、方向を計測するために地磁気センサとを有する。装着型デバイス103を眼鏡型のデバイスとする場合、現場作業員は、装着型デバイス103を頭部に装着する。この場合、姿勢計測部701は、頭部(目の付近)の姿勢を計測する。
位置計測部702は、装着型デバイス103を装着している現場作業員の位置を計測するためのセンサモジュールを有する。本実施形態では、位置計測部702は、少なくともGPSモジュールを有し、地理座標系の位置情報を断続的に計測する。
センサ管理部703は、姿勢計測部701と位置計測部702とを制御し、通信部704を介して、作業員配置情報(装着型デバイス103の識別情報と現場作業員の位置、動き、および向きの情報)を定期的に監視サーバ106に送信する。
通信部704は、無線通信インタフェースであり、無線通信基地局104を介して監視サーバ106との通信を行う。
電源部705は、装着型デバイス103を装着している現場作業員の監視作業の間、当該装着型デバイス103を動作させるための電源を搭載したバッテリーである。
図8は、本実施形態の監視システム(監視サーバ106等)に用いるコンピュータシステムの構成の一例を示す図である。
CPU801は、OS(Operating System)および各種アプリケーションプログラムを実行し、コンピュータ装置の各部の制御を行う。ROM802は、CPU801が実行するプログラムや演算用のパラメタのうちの固定的なデータを格納する。RAM803は、CPU801の作業領域やデータの一時記憶領域を提供する。ROM802およびRAM803は、バス804を介してCPU801に接続される。キーボードなどの入力装置805、CRT、液晶ディスプレイなどの表示装置806、ハードディスク装置、MO、CD−ROM等の外部記憶装置807は、インタフェース808を介してバス804に接続されている。また、バス804は、通信部809を介してネットワーク105と接続される。
引き続いて、非監視状態の現場作業員の定常監視領域を監視カメラ101で撮影する際の一連の処理の一例について図9、図10を参照して詳しく説明する。尚、以下の各処理に先立って、全ての監視カメラ101a、101bおよび装着型デバイス103a、103bは、監視サーバ106との接続を確立し、相互に通信可能な状態になっているものとする。また、前述した通り、各監視カメラ101a、101bのカメラ設置情報は、予め設定されているものとする。
図9は、非監視状態の現場作業員の定常監視領域を撮影することが可能な監視カメラ101を決定する際の監視サーバ106における処理の一例を説明するフローチャートである。ここでは、装着型デバイス103を装着した現場作業員が、定常的な監視をすることが可能な状態になっており、作業員管理部203において作業員配置情報が作成済みであるものとする。前述した通り、作業員配置情報は、現場作業員が現場で監視活動を開始した後、現場作業員が定常監視状態であることが計測情報処理部204により最初に判定された際に作業員管理部203により作成または更新され、管理される情報である。
ステップS901では、作業員管理部203は、新規の作業員配置情報の作成または既に作成済みの作業員配置情報の更新を行い、新たな作業員配置情報を取得する。尚、取得候補の作業員配置情報が複数ある場合、作業員管理部203は、作成および更新の時間順で作業員配置情報を取得すれば良い。
次に、ステップS902では、作業員管理部203は、ステップS901において作業員配置情報を取得できたか否かを判定する。この判定の結果、作業員配置情報を取得できた場合にはステップS903に移行する。一方、作業員配置情報を取得できなかった場合には処理を終了する。
ステップS903では、作業員管理部203は、ステップS901で取得した作業員配置情報と、一般的な作業員が監視可能な領域の情報とに基づいて、現場作業員の定常監視領域を決定する。作業員管理部203は、決定した定常監視領域を、当該定常監視領域を決定する際に用いた作業員配置情報と関連付けて管理する。前述した通り、一般的な作業員が監視可能な領域の情報は、作業員管理部203が予め保持しているものとする。本実施形態ではこのようにして、定常監視領域の情報の取得を行う第1の取得処理の一例が実現される。
ステップS904では、監視カメラ制御部205は、監視カメラ管理部202が管理するカメラ設置情報を取得する。そして、監視カメラ制御部205は、ステップS901で取得した作業員配置情報に含まれる現場作業員の位置の情報と、カメラ設置情報に含まれる監視カメラ101の位置の情報とに基づき、現場作業員に最も近い位置にある監視カメラ101を検索する。この現場作業員は、ステップS901で取得した作業員配置情報に含まれる装着型デバイス103の識別情報で識別される装着型デバイスを装着している現場作業員である。
ステップS905では、監視カメラ制御部205は、ステップS904で検索した監視カメラ101が、ステップS903で決定した現場作業員の定常監視領域のうち、予め設定した割合以上の領域を撮影することが可能か否かを判定する。監視カメラ制御部205は、ステップS904で検索した監視カメラ101の撮影可能領域を監視カメラ管理部202から取得する。そして、監視カメラ制御部205は、例えば、当該監視カメラ101の撮影可能領域がステップS903で決定した定常監視領域を、面積にして80%以上カバーしているか否かの判定を実施することにより、ステップS905の判定を行うことができる。この判定の結果、ステップS904で検索した監視カメラ101が、ステップS903で決定した現場作業員の定常監視領域のうち、予め設定した割合以上の領域を撮影することが可能である場合には、ステップS906に移行する。
ステップS906では、監視カメラ制御部205は、現場作業員の定常監視領域のうち、予め設定した割合以上の領域を撮影することができると判定した監視カメラ101を、ステップS901で取得した作業員配置情報に関連付けて記憶装置107に記憶する。このとき、監視カメラ制御部205は、当該監視カメラ101が当該現場作業員の定常監視領域を撮影するために必要な制御情報を導出して記憶装置107に記憶する。前述した通り本実施形態では、パン角度を制御する。従って、監視カメラ制御部205は、当該監視カメラ101が当該撮影することが可能な領域を撮影するために必要なパン角度を求めておく。
図11は、監視カメラ101が現場作業員の定常監視領域のうち、予め設定した割合以上の領域を撮影するために当該監視カメラ101を動かす必要があるパン角度の一例を説明する図である。尚、図11では、現場作業員102a、102bを現場作業員102と表記する(以下の説明でも必要に応じて同様とする)。
監視カメラ101は、非監視状態の現場作業員102の定常監視領域1102のうち、予め設定した割合以上の領域を撮影するために、パン角度θだけ、紙面に向かって反時計回りに回動(パン)し、撮影可能領域1101を監視領域として撮影する。
一方、ステップS905において、ステップS904で検索した監視カメラ101が、ステップS903で決定した現場作業員102の定常監視領域のうち、予め設定した割合以上の領域を撮影することが可能でないと判定された場合、ステップS904に戻る。そして、監視カメラ制御部205は、前回検索した監視カメラ101の次に現場作業員に近い位置にある監視カメラ101を検索する。ステップS903で決定した現場作業員の定常監視領域のうち、予め設定した割合以上の領域を撮影することが可能な監視カメラ101が検索されるまで、ステップS904、S905の処理を繰り返し行う。全ての監視カメラ101a、101bについてステップS905の判定をしても監視カメラ101が検索されなかった場合は、図9のフローチャートによる処理を終了する。ここで、現場作業員102からあまりに遠方の監視カメラ101を検索しても、当該監視カメラ101により当該現場作業員102の定常監視領域を適切に撮影することができない虞がある。従って、現場作業員102の位置からある一定の距離までの範囲内にある監視カメラ101を対象としてステップS904の検索を行うようにしても良い。
尚、作業員配置情報が現場作業員102の状態に応じて新規作成され更新されることから、図9のフローチャートは、繰り返し実施される。あるいは、作業員配置情報が新規作成または更新された場合に図9のフローチャートを適宜実施しても構わない。
図10は、非監視状態の現場作業員102の定常監視領域を監視カメラ101でカバーして撮影する際の監視サーバ106における処理の流れの一例を説明するフローチャートである。
ステップS1001では、計測情報処理部204は、装着型デバイス103により計測された情報(当該装着型デバイス103を装着している現場作業員102の位置、動き、および向きの情報)に基づいて、当該現場作業員の監視状態を判定する。
ステップS1002では、計測情報処理部204は、当該現場作業員102の監視状態が非監視状態であるか否かを判定する。この判定の結果、当該現場作業員102の監視状態が非監視状態である場合にはステップS1003へ移行する。そうでない場合は、ステップS1001に戻り、別の装着型デバイス103についての処理を実施する。本実施形態ではこのようにして、現場作業員102の監視状態の情報の取得を行う第2の取得処理の一例が実現される。現場監視員が、これから非監視状態になる旨を明示的に監視サーバ106に伝達したことをもって、監視サーバ106が、現場作業員102が非監視状態になったと判定しても良い。監視サーバ106への伝達方法としては、装着型デバイス103へのボタン操作、音声コマンド操作(「これからお客様ご案内します」)等を用いる。監視サーバ106への伝達方法は、装着型デバイス経由に限らず、他の通信手段を用いても良い。
ステップS1003では、監視カメラ制御部205は、非監視状態であると判定された現場作業員102が装着している装着型デバイス103の識別情報を含む作業員配置情報と関連付けられている監視カメラ101を特定する。この特定は、ステップS906の処理(監視カメラ101と作業員配置情報との関連付け)の結果に基づいて行われる。本実施形態ではこのようにして、監視カメラの選択を行う選択処理の一例が実現される。
ステップS1004では、監視カメラ制御部205は、ステップS1003で特定した監視カメラ101が当該現場作業員102の定常監視領域を撮影するために必要な制御情報を記憶装置107から取得する。ステップS906で説明したように、この制御情報は、ステップS906の処理で記憶装置107に記憶されている。本実施形態では前述した通り、制御情報としてパン角度を取得する。本実施形態ではこのようにして、監視カメラの動作の内容を特定する特定処理の一例が実現される。尚、非監視状態でなくなった場合は、監視カメラ101が当該領域の撮影をする必要はなくなる。そこで、ステップS1002以降の処理を実行中に、ステップS1001〜ステップS1002での監視状態の判定を非同期的に繰り返し行う。そして、監視状態に戻ったことを判定した場合(S1002がnoであった場合)は、監視カメラ101の制御を終了し、監視カメラ101をもとのカメラの撮影位置に戻す等した上で、処理を終了する。
ステップS1005では、監視カメラ制御部205は、ステップS1004で取得した制御情報に従い、ステップS1003で特定した監視カメラ101を制御して、当該監視カメラ101の監視領域(当該現場作業員102の定常監視領域)の画像を受信する。本実施形態ではこのようにして、監視カメラ101に対する動作の指示を行う指示処理の一例が実現される。
ステップS1006では、監視カメラ制御部205は、受信した画像を、出力部208を介してモニタ108a、108bの少なくとも何れか1つに出力する。前述した通り本実施形態では、出力部208は、非監視状態の現場作業員102の定常監視領域の画像であることを、モニタ監視員109等に理解させるための情報を、受信した画像に付加した上で当該画像を出力する。例えば、受信した画像に非監視状態の現場作業員の定常監視領域を撮影中であることを示すメッセージを重畳させることができる。これにより、当該画像を受信したモニタは、非監視状態の現場作業員の定常監視領域の画像として、当該メッセージが重畳された画像を表示する。本実施形態ではこのようにして、定常監視領域の画像と、当該画像が非監視状態の現場作業員102の定常監視領域の画像であることを示す情報の出力を行う出力処理の一例が実現される。
以上のように本実施形態では、作業員配置情報に基づいて現場作業員102a、102bの定常監視領域を決定する。作業員監配置報とカメラ設置情報とに基づいて、監視カメラ101a、101bのうち、この定常監視領域を一定割合以上撮影することが可能な監視カメラを検索し、当該作業員配置情報と当該監視カメラとを相互に関連付けて管理する。また、当該監視カメラで当該定常監視領域を撮影するために必要な当該監視カメラの動作の内容(パン角度)を求める。その後、装着型デバイス103a、103bにより計測された情報に基づいて、当該装着型デバイスを装着している現場作業員の監視状態が非監視状態であるか否かを判定する。そして、当該装着型デバイスを装着している現場作業員の監視状態が非監視状態である場合、当該装着型デバイスの識別情報を含む作業員配置情報に関連付けられている監視カメラを動作させて、当該監視カメラにより当該現場作業員の定常監視領域を撮影する。従って、現場で監視を行う作業員が非監視状態となった場合に、当該作業員による定常監視領域の監視を支援することができる。これにより、例えば、事故・事件の予兆や発生の見逃しや発見の遅れを抑制できるようになる。
本実施形態では、GPSを用いて、装着型デバイス103a、103bの位置の計測を行う場合を例に挙げて説明したが、他の手段を用いて装着型デバイス103a、103bの位置を計測しても良い。例えば、前述したように、無線LANの電波強度を用いた三角測量により、装着型デバイス103a、103bの位置を計測することができる。この他、無線タグや近接通信を利用することにより、装着型デバイス103a、103bの位置を計測しても良い。更に、装着型デバイス103a、103bの位置の計測部を用いる代わりに、例えば、以下のようにしても良い。即ち、監視カメラ101a、101bで撮影された画像を解析した結果に基づいて、装着型デバイス103a、103bを装着している現場作業員102a、102bを認識して、現場作業員102a、102bの位置を計測しても良い。
また、本実施形態では、3次元加速度センサや地磁気センサを用いて現場作業員102a、102bの姿勢を計測し、その結果に基づいて、現場作業員102a、102bの監視状態を判定する場合を例に挙げて説明した。しかしながら、現場作業員102a、102bの監視状態を判定する方法として、これ以外の方法を用いても良い。例えば、監視カメラ101a、101bにより撮影された現場作業員102a、102bの画像を監視サーバ106で解析し、その結果に基づいて、現場作業員102a、102bの監視状態を判定しても良い。
<第2の実施形態>
第1の実施形態では、計測情報処理部204は、現場作業員102の監視状態が、定常監視状態および非監視状態の何れかであるとして、現場作業員102の監視状態を2値的に判定する場合を例に挙げて説明した。しかしながら、現場作業員102の監視状態は、これに限るものではない。例えば、前述したような、雑踏の監視であれば、現場作業員102a、102bの監視状態が定常的な監視状態にならない状況として以下の1)〜5)のような様々な状況が想定される。即ち、1)客から道を尋ねられて対応したり、2)異音や異臭に周囲を見回したり、3)大きな音の発生個所を注視したり、4)客同士の小競り合いや、客の異常行動を取り締まったり、5)目の前の老人や子ども、けが人等の介助をしたりする状況が想定される。
そこで、これらそれぞれの状況毎に装着型デバイス103のセンサの計測値のパターンを学習し、いずれの状況で非監視状態にあるかを判別するようにしても良い。例えば、装着型デバイス103のセンサデバイスの計測値のパターンと、当該パターンであるときの状況とを示す大量のデータを用いて、汎用的な機械学習によって状況毎のパターンの傾向を判別する判別器を学習すれば良い。例えば、多クラスの判定を行うニューラルネットワークを過去の計測値を元に構築して、判別する等すれば良い。また、重回帰分析を行うことにより判別器を構成してもよい。
また、非監視状態のそれぞれの状況と定常監視状態とをクラスに含む判別器を作成してもよいし、非監視状態のそれぞれの状況のみをクラスに含む判別器を作成してもよい。後者のようにする場合には、例えば、第1の実施形態のようにして、現場作業員102a、102bの監視状態が非監視状態であると判定した場合に、前記判別器を用いて、どのような状況(理由)で非監視状態になっているのかを判別することができる。そして、出力部208は、監視カメラ101から受信した画像に、計測情報処理部204により判別された、非監視状態が生じている状況(理由)を示す情報を付加する。例えば、計測情報処理部204により判別された、非監視状態が生じている状況(理由)を示す情報を、その状況(理由)を示すメッセージとすることができる。この場合、監視カメラ101から受信した画像に、当該メッセージを重畳させることができる。
このように、非監視状態の内容による区別をすることで、モニタルームのモニタ監視員109も、非監視状態がどのような理由で生じているのかを知ることができる。従って、例えば、その非監視状態となっている現場作業員102の支援の優先度を考えることができるようになる。本実施形態ではこのようにして、非監視状態が生じている理由の判別を行う判別処理の一例が実現される。
尚、装着型デバイス103のセンサの計測値のパターンに代えてまたは加えて、例えば、以下の少なくとも何れか1つの情報を用いて判別器を構成しても良い。即ち、監視カメラ101で撮影された定常監視領域の画像の所定のオブジェクトの特徴量を用いても良い。また、現場作業員102が装着した装着型デバイス103としての眼鏡型デバイスで撮影された画像の所定のオブジェクトの特徴量を用いても良い。また、現場作業員102を含む人物の音声の内容を用いても良い。
<第3の実施形態>
第1の実施形態では、計測情報処理部204は、装着型デバイス103のセンサによって計測された値を利用して、現場作業員102が非監視状態であるか否かを判定する場合を例に挙げて説明した。具体的には、現場作業員102の頭の向きおよび移動量が所定の範囲を超えるか否かを判定する場合を例に挙げて説明した。しかしながら、現場作業員102が非監視状態であるか否かを判定する手法は、このような手法に限るものではない。
例えば、現場作業員102が非監視状態であることは、現場作業員102の視野からも推定可能である。そこで、例えば以下のようにしても良い。即ち、現場作業員102の装着型デバイス103として眼鏡型デバイスを用いて、現場作業員102の目線で画像を撮影する。このようにすることで、計測情報処理部204は、現場作業員102が視覚的に捉えている情報を取得することができる。
計測情報処理部204は、この現場作業員102が視覚的に捉えている情報に基づいて、現場作業員102が非監視状態であるか否かを判定する。例えば、客から道を尋ねられて対応するような場合、現場作業員102は、ある特定の人物を継続的に捉えている。従って、計測情報処理部204は、装着型デバイス103で撮影されている画像に、同一人物が所定時間以上継続して含まれている場合、当該装着型デバイスを装着している現場作業員は非監視状態であると判定することができる。また、第2の実施形態で説明したように、非監視状態が生じている状況を判別する場合には、その判別の結果を併用することで、さらに判別の精度を向上させるようにすることができる。このようにすることで、内容の把握の精度があがれば、支援の判断の精度も向上することが期待できる。
この他、装着型デバイス103が音声を検出できる場合には、計測情報処理部204は、当該音声の内容を解析した結果に基づいて、当該装着型デバイス103を装着している現場作業員102が非監視状態であるか否かを判定することができる。例えば、会話をしている人物が同じ(音声が同一人物のもの)であり、且つ、会話の内容およびリズムが、現場作業員102が非監視状態であることと矛盾していないものである場合に、現場作業員102が非監視状態であると判定することができる。その具体例としては、会話において、予め設定されているキーワードが含まれており、会話のリズムが予め設定されている範囲内である場合に、現場作業員102が非監視状態であると判定することができる。
また、装着型デバイス103で撮影された画像と装着型デバイス103で検出された音声とを組み合わせて、当該装着型デバイス103を装着している現場作業員102が非監視状態であるか否かを判定することもできる。例えば、現場作業員102が、会話の内容と矛盾のないオブジェクトを見ている場合に、当該現場作業員102が非監視状態であると判定することができる。客から道を尋ねられて対応することを想定する場合、当該オブジェクトは、例えば地図になる。この場合、道案内をしていることにより現場作業員102の監視状態が非監視状態になったと判別することができる。
また、現場作業員102の定常監視領域の過去の画像と、当該現場作業員102が装着している装着型デバイス103で撮影された現在の画像との一致度が所定値よりも小さい場合に、当該現場作業員102が非監視状態であると判定しても良い。このようにする場合、例えば、現場作業員102のそれぞれの定常監視領域の画像を記憶装置107に蓄積(記憶)しておく。そして、蓄積した画像に含まれるオブジェクトの移動量に基づいて、急激な変化が大きい領域とそうでない領域(例えば、群衆部分とそれ以外の部分や、近景と遠景)とに当該画像を分離し、急激な変化が小さい領域について一致度を判定することができる。
本実施形態では以上のようにして、現場作業員102の監視状態の情報の取得を行う第2の取得処理の一例が実現される。
<第4の実施形態>
第3の実施形態では、客から道を尋ねられるような対人対応によって生じた非監視状態を判定する場合を例に挙げて説明した。この場合に、当該非監視状態の現場作業員102の定常監視領域を撮影した画像を出力部208からモニタに出力する際、次に示すような処理を経た加工を行っても良い。
まず、監視システムの各監視カメラ101で撮影された画像は、記憶装置107に一定期間蓄積されているものとする。計測情報処理部204は、現場作業員102の監視状態が対人対応によって非監視状態になったと判定すると、当該対応している相手を記憶装置107に蓄積されている画像から検索する。人物の検索には、人物の画像特徴や顔特徴量を利用した一般的な検索技術を利用することができる。
このとき、計測情報処理部204は、当該検索した画像から、当該対応している相手と関連がある人物を推定する。例えば、計測情報処理部204は、一定時間以上、当該対応している相手の近傍に存在する人物、或いは、当該対応している相手との対面状態が一定時間以上続いている人物を、当該対応している相手と関連がある人物とすることができる。
そして、計測情報処理部204は、当該対応している相手と関連がある人物の特徴量を取得して出力部208に出力する。出力部208は、モニタに出力する画像中に、特徴量が当該特徴量と同じまたは近い(特徴量の類似度が措定の範囲内)の人物が存在するか否かを判定する。この判定の結果、当該人物が存在する場合、出力部208は、受信した監視カメラ101の画像に、他の監視カメラ101の画像とは区別可能な情報を重畳した画像に、モニタに出力する画像を加工する。例えば、当該対応している相手と関連がある人物がいることを示すメッセージと、当該画像に映し出されている当該人物を示す情報との少なくとも何れか1つを、監視カメラ101で撮影された画像に重畳させることができる。このようにすることで、例えば、対人対応を求めた人物が、意図的に現場作業員102の気を引いて非監視状態にした上で、当該現場作業員102の定常監視領域内で、仲間に問題行動を起こさせるといった状況を、見逃すことなく発見することが可能になる。
この他、対人対応を求めた人物と関連がある人物に代えて、対人対応を求めた人物と関連がある物が存在するか否かを判定してもよい。この場合、例えば、当該対応している相手と関連がある物があることを示すメッセージと、当該画像に映し出されている当該物を示す情報との少なくとも何れか1つを、監視カメラ101で撮影された画像に重畳させることができる。このようにすれば、例えば、当該物が不審物である可能性があることをモニタ監視員109に認識させることができる。
また、現場作業員102が、異音や異臭を発生している物や、大きな音を発生している物を見ていることにより非監視状態になった場合、当該物と関連がある人物が存在するか否かを判定しても良い。この場合、例えば、当該物と関連がある人物が存在することを示すメッセージと、当該画像に映し出されている当該人物を示す情報との少なくとも何れか1つを、監視カメラの画像に重畳させることができる。このようにすれば、例えば、当該人物が不審者である可能性があることをモニタ監視員109に認識させることができる。また、当該物と関連がある人物が存在するか否かを判定することに代えて、当該物と関連がある物が存在するか否かを判定してもよい。例えば、異臭を発生している物の近くに一定時間継続した存在している物が過去の画像から特定される場合、当該物も異臭を発生する可能性があるので、このような物をモニタ監視員109に迅速に認識させることができる。
本実施形態では以上のようにして、現場作業員が注意を向けている人物または物体の推定を行う推定処理の一例が実現される。
<第5の実施形態>
第1の実施形態では、監視カメラ制御部205は、定常監視領域のうち、予め設定した割合以上の領域を撮影すること(カバーすること)が可能な監視カメラ101のうち、現場作業員に最も近い位置にある監視カメラを検索する場合を例に挙げて説明した。しかしながら、監視カメラを検索する手法は、このような手法に限定されない。例えば、監視カメラ制御部205は、定常監視領域をカバーする割合が最大(定常監視領域の全体に対する、撮影可能領域に含まれる定常可能領域の大きさの割合)となる監視カメラ101を選択して良い。各監視カメラ101が同じスペックの監視カメラ101であれば、現場作業員102に最も近い位置にある監視カメラ101を検索することにより、より鮮明な撮影が可能である。一方で、定常監視領域をカバーする割合が最大となる監視カメラ101を検索することにより、非監視状態の監視領域の漏れがより少なくなる。これらの何れの検索手法を採用するかは、監視対象に応じて予め決定しておけば良い。尚、本実施形態のように、定常監視領域をカバーする割合を考慮するのが好ましい。しかし、現場作業員102に最も近い位置にある監視カメラ101であれば、定常監視領域をある程度カバーすることができると見なし、定常監視領域をカバーする割合を考慮せずに、現場作業員102に最も近い位置にある監視カメラ101を検索しても良い。あるいは、現場作業員102の定常監視領域が重複している場合は、一方が非監視状態になった場合は、重複していない範囲をより多くカバーする監視カメラ101を検索するようにしても良い。また、最も近い位置の監視カメラ101が、他の定常監視領域をカバーするために既に制御を受けていたり、モニタ監視員によって制御されていたりするような場合には、次に近い監視カメラ101から検索するようにしても良い。この場合、代替措置であるため、領域をカバーする割合の閾値を下げるなどして、なるべく非監視状態にならないように監視カメラ101を制御する。本実施形態ではこのようにして、監視カメラ101の選択を行う選択処理の一例が実現される。
<第6の実施形態>
第1の実施形態では、監視サーバ106の計測情報処理部204が、装着型デバイス103から、当該装着型デバイス103で計測された情報を継続的に処理する場合を例に挙げて説明した。しかしながら、必ずしも、計測情報処理部204が、現場作業員102の監視状態を判定する必要はない。例えば、装着型デバイス103が、計測情報処理部204に相当する処理を持続的に実行可能な性能を有する場合、現場作業員102が非監視状態であるか否かを当該現場作業員が装着している装着型デバイス側で判定することができる。この場合、装着型デバイス103は、当該装着型デバイス103を装着している現場作業員102が非監視状態になったことを示す情報を、無線通信基地局104を介して、監視サーバ106にプッシュ通知しても構わない。このようにすることで、現場作業員102が非監視状態になった場合にのみ、装着型デバイス103と監視サーバ106とが通信を行うことができる。従って、例えば、多数の現場作業員102がいるような場合に、監視サーバ106での処理およびトラフィックを軽減できる効果が期待できる。本実施形態ではこのようにして、定常監視領域の情報の取得を行う第1の取得処理の一例が実現される。
<その他の実施例>
本発明は、前述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
尚、前述した実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。
101a〜101b:監視カメラ、102a〜102b:現場作業員、103a〜103b:装着型デバイス、106:監視サーバ

Claims (19)

  1. 作業員が監視する領域の情報を取得する第1の取得手段と、
    前記作業員が前記領域を定常的に監視できている状態であるか否かを示す情報を取得する第2の取得手段と、
    前記第2の取得手段により、前記作業員が前記領域を定常的に監視できている状態でないことを示す情報が取得されると、当該領域の少なくとも一部を撮影することを撮影装置に指示する指示手段と、を有することを特徴とする情報処理装置。
  2. 前記領域を撮影する撮影装置を複数の撮影装置の中から選択する選択手段を更に有し、
    前記指示手段は、前記第2の取得手段により、前記作業員が前記領域を定常的に監視できている状態でないことを示す情報が取得されると、当該領域の少なくとも一部を撮影することを、前記選択手段により選択された前記撮影装置に指示することを特徴とする請求項1に記載の情報処理装置。
  3. 前記選択手段は、前記領域のうち前記撮影装置が撮影することが可能な部分の割合に基づいて、前記複数の撮影装置の中から、前記領域を撮影する撮影装置を選択することを特徴とする請求項2に記載の情報処理装置。
  4. 前記選択手段は、前記作業員の位置に基づいて、前記複数の撮影装置の中から、前記領域を撮影する撮影装置を選択することを特徴とする請求項2または3に記載の情報処理装置。
  5. 前記領域を撮影する撮影装置が前記領域を撮影するために必要な当該撮影装置の動作の内容を特定する特定手段を更に有し、
    前記指示手段は、前記第2の取得手段により、前記作業員が前記領域を定常的に監視できている状態でないことを示す情報が取得されると、前記特定手段により特定された内容で動作して前記領域の少なくとも一部を撮影することを前記撮影装置に指示することを特徴とする請求項1〜4の何れか1項に記載の情報処理装置。
  6. 前記撮影装置により撮影された前記領域の画像を当該撮影装置から取得して出力する出力手段を更に有することを特徴とする請求項1〜5の何れか1項に記載の情報処理装置。
  7. 前記出力手段は、前記出力する画像が、前記作業員が前記領域を定常的に監視できている状態でないときに撮影された前記領域の画像であることを示す情報を更に出力することを特徴とする請求項6に記載の情報処理装置。
  8. 前記作業員が前記領域を定常的に監視できている状態でないときに撮影された前記領域の画像であることを示す情報は、前記出力する画像とともに表示される情報であることを特徴とする請求項7に記載の情報処理装置。
  9. 前記作業員の行動を示す情報および前記作業員を含む人物の音声の少なくとも何れか一方に基づいて、前記作業員が前記領域を定常的に監視できている状態でないことが生じている理由を判別する判別手段を更に有し、
    前記出力手段は、前記領域の画像を前記判別手段が判別した理由によって区別して表示することを特徴とする請求項6〜8の何れか1項に記載の情報処理装置。
  10. 前記第1の取得手段は、前記作業員が前記領域を定常的に監視できている状態であるときの当該作業員の位置および向きと、前記領域の大きさおよび形状として予め記憶されている大きさおよび形状の情報とに基づいて、前記領域を導出することを特徴とする請求項1〜9の何れか1項に記載の情報処理装置。
  11. 前記第2の取得手段は、前記作業員の行動を示す情報および前記作業員を含む人物の音声の少なくとも何れか一方に基づいて、当該作業員が前記領域を定常的に監視できている状態であるか否かを判定することを特徴とする請求項1〜10の何れか1項に記載の情報処理装置。
  12. 前記第2の取得手段は、前記作業員の行動を示す情報および前記作業員を含む人物の音声の少なくとも何れか一方に基づいて、当該作業員が他の人物または物体に注意を向けている状態であるか否かを判定することを特徴とする請求項1〜11の何れか1項に記載の情報処理装置。
  13. 前記作業員が他の人物または物体に注意を向けている状態であると判定されると、前記撮影装置を含む撮影装置で撮影された画像を蓄積する記憶手段により蓄積された当該画像に基づいて、当該人物または当該物体に関連する人物または物体を推定する推定手段を更に有することを特徴とする請求項12に記載の情報処理装置。
  14. 前記撮影装置により撮影された前記領域の画像を当該撮影装置から取得して出力する出力手段を更に有し、
    前記出力手段は、前記推定手段により、前記作業員が注意を向けていると判定された他の人物または物体に関連する人物または物体が推定されると、当該人物または当該物体が存在することを示す情報を更に出力することを特徴とする請求項13に記載の情報処理装置。
  15. 前記人物または前記物体が存在することを示す情報は、前記出力する画像とともに表示される情報であることを特徴とする請求項14に記載の情報処理装置。
  16. 前記作業員の行動を示す情報は、前記作業員が装着したセンサにより計測された情報、前記作業員の目線で撮影された画像、および前記領域を撮影した画像の少なくとも1つに基づいて取得されることを特徴とする請求項11〜15の何れか1項に記載の情報処理装置。
  17. 請求項1〜16の何れか1項に記載の情報処理装置と、複数の前記撮影装置と、前記撮影装置により撮影された画像を含む情報を表示する少なくとも1つの表示装置とを有することを特徴とする監視システム。
  18. 作業員が監視する領域の情報を取得する第1の取得工程と、
    前記作業員が前記領域を定常的に監視できている状態であるか否かを示す情報を取得する第2の取得工程と、
    前記第2の取得工程により、前記作業員が前記領域を定常的に監視できている状態でないことを示す情報が取得されると、当該領域の少なくとも一部を撮影することを撮影装置に指示する指示工程と、を有することを特徴とする情報処理方法。
  19. 請求項1〜16の何れか1項に記載の情報処理装置の各手段としてコンピュータを機能させることを特徴とするプログラム。
JP2016148697A 2016-07-28 2016-07-28 情報処理装置、情報処理方法、およびプログラム Active JP6720010B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016148697A JP6720010B2 (ja) 2016-07-28 2016-07-28 情報処理装置、情報処理方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016148697A JP6720010B2 (ja) 2016-07-28 2016-07-28 情報処理装置、情報処理方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2018019278A JP2018019278A (ja) 2018-02-01
JP6720010B2 true JP6720010B2 (ja) 2020-07-08

Family

ID=61082132

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016148697A Active JP6720010B2 (ja) 2016-07-28 2016-07-28 情報処理装置、情報処理方法、およびプログラム

Country Status (1)

Country Link
JP (1) JP6720010B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6877173B2 (ja) * 2017-02-20 2021-05-26 セコム株式会社 監視支援装置及び監視システム
US11599083B2 (en) * 2018-05-31 2023-03-07 Mitsubishi Electric Corporation Work analysis apparatus for analyzing work including series of actions performed by working subject
WO2021177183A1 (ja) * 2020-03-05 2021-09-10 日本電気株式会社 監視装置、監視システム、監視方法およびプログラム記録媒体

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5003731B2 (ja) * 2009-07-07 2012-08-15 日本電気株式会社 巡回警備支援システム、方法及びプログラム
JP2012156752A (ja) * 2011-01-26 2012-08-16 Canon Inc 監視領域制御方法

Also Published As

Publication number Publication date
JP2018019278A (ja) 2018-02-01

Similar Documents

Publication Publication Date Title
EP3754592B1 (en) Image acquisition device and method of controlling the same
JP5121258B2 (ja) 不審行動検知システム及び方法
JP5927691B2 (ja) エリアモニタリングシステム
JP6141079B2 (ja) 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
JP6244120B2 (ja) 映像表示システム及び映像表示用プログラム
JPWO2017115598A1 (ja) 映像送信装置、映像送信方法、及びプログラム
JP2018160219A (ja) 移動経路予測装置、及び移動経路予測方法
JP2015002553A (ja) 情報処理システムおよびその制御方法
JP2008040781A (ja) 被写体照合装置および被写体照合方法
JP6720010B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JPWO2017163514A1 (ja) 眼鏡型ウェアラブル端末、その制御方法および制御プログラム
JP2011114580A (ja) 複数カメラ監視システム、携帯端末装置、センター装置及び複数カメラ監視方法
US20220189038A1 (en) Object tracking apparatus, control method, and program
JP2012128877A (ja) 不審行動検知システム及び方法
KR20170048006A (ko) 감시 시스템 및 그 제어 방법
Irfan et al. Crowd analysis using visual and non-visual sensors, a survey
JP2016103690A (ja) 監視システム、監視装置、および監視方法
JP2006221379A (ja) 行動認識システム
JP2017167800A (ja) 監視システム、情報処理装置、監視方法および監視プログラム
JP6941458B2 (ja) 監視システム
WO2019021973A1 (ja) 端末装置、危険予測方法、記録媒体
JP2011087214A (ja) 撮影システム、方法及びプログラム
JP6483326B2 (ja) 監視システムおよび端末装置
KR20230052092A (ko) IoT 기술을 융합한 지능형 영상분석 기반의 이동식 독립운영 스마트 안전 시스템 및 그의 제공 방법
JP2020002514A (ja) ヘルメット

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200424

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200519

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200617

R151 Written notification of patent or utility model registration

Ref document number: 6720010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151