JP2011114580A - 複数カメラ監視システム、携帯端末装置、センター装置及び複数カメラ監視方法 - Google Patents

複数カメラ監視システム、携帯端末装置、センター装置及び複数カメラ監視方法 Download PDF

Info

Publication number
JP2011114580A
JP2011114580A JP2009269116A JP2009269116A JP2011114580A JP 2011114580 A JP2011114580 A JP 2011114580A JP 2009269116 A JP2009269116 A JP 2009269116A JP 2009269116 A JP2009269116 A JP 2009269116A JP 2011114580 A JP2011114580 A JP 2011114580A
Authority
JP
Japan
Prior art keywords
camera
amount
overlap
feedback
feedback amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009269116A
Other languages
English (en)
Inventor
治峰 ▲吉▼羽
Harumine Yoshiba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009269116A priority Critical patent/JP2011114580A/ja
Publication of JP2011114580A publication Critical patent/JP2011114580A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

【課題】比較的簡易な構成で、死角領域を低減できる複数カメラ監視システムを提供すること。
【解決手段】サーバ装置(センター装置)200は、各カメラ間のカメラ視野の重複量を求める視野重複判定部203と、前記重複量に基づいて、各カメラへのフィードバック量を決定するフィードバック量決定部204と、前記各カメラへのフィードバック量の情報を、無線送信する無線通信部201を有する。
【選択図】図3

Description

本発明は、複数カメラを用いた監視システムにおいて、カメラによって撮像されない監視死角領域を低減する技術に関する。
従来、警備員が身体(頭部又は胸ポケット等)に装着したカメラにより周囲画像を撮影し、不審者検出や防犯に役立てるための装置が提案されている。このような装置は、例えば、特許文献1及び特許文献2に記載されている。
特開2006−086582号公報 特表2007−523545号公報
ところで、装着型のカメラ(以下これをウェアラブルカメラと呼ぶ)の用いられ方としては、複数の警備員のウェアラブルカメラから得られた監視画像情報を、センター装置によって収集することで、大きな監視エリアを網羅する監視画像を取得するといった、ことが想定される。
このような想定される用いられ方においては、各ウェアラブルカメラの配置及び方向を制御しないと、重複して撮像される監視画像が増大し、これに伴って、撮像されない死角領域が増大すると考えられる。このような状況は、複数のウェアラブルカメラに限らず、複数の固定カメラを設置する場合も起こり得る。
本発明はかかる点に鑑みてなされたものであり、比較的簡易な構成で、死角領域を低減できる複数カメラ監視システムを提供することを目的とする。
本発明の複数カメラ監視システムの一つの態様は、複数のカメラにより得られた複数の撮像画像を収集して、監視画像を取得する複数カメラ監視システムであって、各カメラのカメラ視野を求めるカメラ視野算出部と、各カメラ間の前記カメラ視野の重複量を求める視野重複判定部と、前記重複量に基づいて、前記各カメラへのフィードバック量を決定するフィードバック量決定部と、前記各カメラへのフィードバック量の情報を送信するフィードバック量情報送信部と、前記フィードバック量の情報を受信し、前記フィードバック量に応じたレベルの喚起出力を行うフィードバック出力部と、を具備する。
本発明の携帯端末装置の一つの態様は、複数のカメラにより得られた複数の撮像画像を収集して、監視画像を取得する、複数カメラ監視システムに用いられる携帯端末装置であって、カメラと、他のカメラとのカメラ視野の重複量に基づいて決定されたフィードバック量に応じたレベルの喚起出力を行うフィードバック出力部と、を具備する。
本発明のセンター装置の一つの態様は、複数のカメラにより得られた複数の撮像画像を収集して、監視画像を取得する、複数カメラ監視システムに用いられるセンター装置であって、各カメラ間の前記カメラ視野の重複量を求める視野重複判定部と、前記重複量に基づいて、前記各カメラへのフィードバック量を決定するフィードバック量決定部と、前記各カメラへのフィードバック量の情報を送信するフィードバック量情報送信部と、を具備する。
本発明の複数カメラ監視方法の一つの態様は、複数のカメラにより得られた複数の撮像画像を収集して、監視画像を取得する複数カメラ監視方法であって、各カメラのカメラ視野を求めるカメラ視野算出ステップと、各カメラ間の前記カメラ視野の重複量を求める視野重複判定ステップと、前記重複量に基づいて、前記各カメラへのフィードバック量を決定するフィードバック量決定ステップと、前記フィードバック量の情報を受信し、前記フィードバック量に応じたレベルの喚起出力を行うフィードバック出力ステップと、を含む。
本発明によれば、比較的簡易な構成で、複数のウェアラブルカメラを連携させて監視エリアの死角補完を図ることができ、死角領域を低減できる。
本発明の実施の形態に係る複数カメラ監視システムのイメージを示す図 ウェアラブルカメラの構成例を示すブロック図 サーバ装置の構成例を示すブロック図 ウェアラブルカメラ及びサーバ装置の動作の説明に供するフローチャート 実施の形態における「密度」の説明に供する図であり、図5Aは広角カメラの密度設定を示す図、図5Bは狭角カメラの密度設定を示す図、図5Cはカメラ視野の中心方向からの角度に応じた密度設定を示す図、図5Dはカメラからの距離に応じた密度設定を示す図 実施の形態の構成によって実現される動作例を示す図 実施の形態2のイメージを示す図 実施の形態2のウェアラブルカメラ及びサーバ装置の動作の説明に供するフローチャート
[1]本発明に至るまでの検討と本発明の原理
先ず、実施の形態を説明する前に、本発明に至るまでに発明者になされた検討事項と、本発明の原理について説明する。
[1−1]本発明に至るまでの検討事項
本発明の発明者は、次のようなケースを想定した。
・ウェアラブルカメラを装着した複数の監視員が監視エリア内を巡回して監視するケース。なお、ウェアラブルカメラが特に有効となるのは、Battle field(争乱の起きている場所)、イベント会場など、固定カメラを定常的、計画的に設置することが難しい場所で用いられる場合である。
・サーバ装置(以下の説明ではサーバ装置を中心に説明するが、以下の説明におけるサーバ装置はセンター装置と言い換えてもよい)に監視エリア内の各ウェアラブルカメラによって撮像された画像、及び、各ウェアラブルカメラの位置と向きと視野角の情報を収集し、エリア内の視野配置(監視画像)を生成するケース。
発明者は、上述したケースにおいて、収集された複数のウェアラブルカメラの画像が、できるだけ広い面積の監視エリアを網羅する(つまり、限られた数のウェアラブルカメラを適切な位置・方向に配置して、監視エリア内の死角を少なくする)にはどのような制御が必要であるかについて考察した。先ず、発明者は、一例として、次のような処理を考えた。
(1) 各カメラの位置、向き情報を、サーバ装置に集める。
(2) サーバ装置においてカメラの最適配置を計算する。
(3) サーバ装置から各カメラに最適配置のカメラ位置、向き情報を配信通知する。
(4) 各カメラのユーザインターフェースを介して監視員に位置、向きの変更を指示する。
しかしながら、上述のような処理においては、(2)で行われるカメラの最適配置(位置・向き)の導出処理は、ナップザック問題のような最適化問題を解く処理であり、それを解くための計算量が非常に大きくなる。特に、カメラの台数が増え、カメラ固有のパラメータ(視野角等)が増えるほどサーバでの計算量が指数関数的に増加する。因みに、各カメラが動くこともあるので、完璧な最適化が行われる訳ではないが、サーバ装置で行われるアルゴリズムは最適化を目指してしまうので、計算量が非常に多くなる。
また、最適化問題を解決し、最適配置を求めたとしても、最適配置を実現するために、ユーザインターフェースを介して各監視員に伝えられる情報は、監視員にとって難解になる。つまり、例えば監視員には「右へ15°回転、7時の方向へ3m移動」等の監視員にとって難解な情報が通知されるので、監視員はbattle field等にいる場合には、この情報を基に迅速に行動することが困難である。よって、膨大な計算を行って最適問題を解決したとしても、カメラの最適配置が迅速に実現されるのは困難である。
[1−2]本発明の原理
本発明は、少ない計算量でカメラの最適配置を実現する。
また、本発明は、監視員が理解し易い通知情報を用いて監視員に移動を促すことで、カメラの迅速な最適配置を実現する。なお、本発明で言う最適配置とは、その配置自体を計算により求めるものではなく、現状のカメラ配置を基にカメラを保持している人物に移動を促すことにより、結果的に得られるものである。
これらを実現するため、本発明では、以下の処理を行う。
(1) 各カメラの位置、向き、画角によって決まる各カメラのカメラ視野(カメラ視野とは有効視野のことである)を、サーバ装置に集める。
(2) サーバ装置において、監視エリア内のカメラ視野の配置を求め、各カメラについて、周辺のカメラのカメラ視野と自身のカメラ視野との重複量を導出する。つまり、サーバ装置では、ナップザック問題のような最適化問題を解く処理は行わず、監視エリア内でのカメラ視野の重複量の算出のみを行う。これにより、最適配置のための計算量が削減される。また、重複量は、“重複量=重なりの面積”としてもよく、“重複量=重複している面積×重複している部分の密度”としてもよい。この密度は、カメラの視野角及び又はカメラからの距離等に応じたものとすればよい。詳しくは後述する。
(3) サーバ装置から各カメラに、各カメラの重複量に比例した強さのフィードバック量を通知する。ここで、各カメラに通知するとは、各カメラを携帯している人物が携帯している音源、バイブレータ等のフィードバック出力部に通知するという意味である。
(4) フィードバック出力部からフィードバック量に応じたレベルの喚起出力を行うことで、監視員に移動を促す。これにより、監視員は、喚起出力(音(ノイズ音や不協和音等)又は振動等)の強弱によって、移動すべき程度を直感的に把握できる。各監視員がフィードバック量が小さくするように自身の位置、向きを自律的に調整することにより、カメラ視野の重複量が極小化され、結果としてカメラの適切な配置が実現される。つまり、複数カメラのカメラ視野が監視エリア内に効率良く分散され、監視エリア内の死角が低減される。
なお、監視員(カメラ)に対するフィードバック量に優先度をつけてもよい。これにより、複数の監視員が同時に動くことによる悪影響(重複量の増加、複数の監視員による相互の視野重複回避動作の発振等)を抑制すること、監視員の不要な混乱を抑えること、監視員の機動性に応じた制御を行うこと、等を実現できる。
また、監視エリア内の位置、方角に応じてフィードバックの大きさを制御してもよい。これにより、特定エリアを重点的に監視する等の制御を行うことが可能となる。
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
[2]実施の形態1
図1は、本発明の実施の形態に係る複数カメラ監視システムのイメージを示す。
複数カメラ監視システム10は、複数のウェアラブルカメラ12−1、12−2、12−3、12−4、12−5と、サーバ装置20とを有する。
監視エリアAR0内には、ウェアラブルカメラ12−1、12−2、12−3、12−4、12−5を装着している複数の監視員11−1、11−2、11−3、11−4、11−5が存在する。ウェアラブルカメラ12−1、12−2、12−3、12−4、12−5は、それぞれ、図中の13−1、13−2、13−3、13−4、13−5で示されるカメラ視野の撮像画像を得る。
なお、図1及び後述する図6、図7においては、図を見やすくするために、塗り潰し領域で示したカメラ視野13−1、13−2、13−3、13−4、13−5がある距離以降で無くなって示されているが、実際には、カメラ12−1、12−2、12−3、12−4、12−5からの距離が遠くなるほど塗り潰し領域が薄くなるイメージである。
以下、説明を簡単化するために、各監視員11−1、11−2、11−3、11−4、11−5を単に監視員11と呼び、各ウェアラブルカメラ12−1、12−2、12−3、12−4、12−5を単にウェアラブルカメラ12と呼び、各カメラ視野13−1、13−2、13−3、13−4、13−5を単にカメラ視野13と呼ぶことがある。
各ウェアラブルカメラ12は、サーバ装置20に無線機21及びネットワーク22を介して接続されている。つまり、各ウェアラブルカメラ12からサーバ20に無線により撮像画像が送信可能とされており、サーバ20から各ウェアラブルカメラ12に無線により制御情報等が送信可能とされている。
図2に、ウェアラブルカメラ100(12−1〜12−5)の構成を示す。ウェアラブルカメラ100は、撮像部101と、カメラ視野情報生成部102と、センサ103と、属性情報保持部104と、無線通信部105と、フィードバック制御部106と、フィードバック出力部107とを有する。
撮像部101は、光学系及び撮像素子を有する所謂カメラ部である。撮像部101によって得られた撮像画像は、無線通信部105を介してサーバ装置20に無線送信される。
カメラ視野情報生成部102は、センサ103により得られた情報に基づいてウェアラブルカメラ100の位置及び向きを求める。カメラ視野情報生成部102は、このカメラ位置及び向きの情報と、属性情報保持部104に保持されているカメラ(すなわち撮像部101)の画角情報とを用いて、撮像部101による撮像範囲の情報であるカメラ視野情報を生成する。
ここで、カメラ位置及び向きの求め方は、特に限定されず、種々の既存の技術を適用すればよい。例えば、センサ103がGPSと地磁気センサであり、GPSの情報から位置を求め、地磁気センサの情報から向きを求めればよい。また、撮像部101によって得られた撮像画像に基づいて、カメラ位置及び向きを求めてもよい。撮像画像に基づいてカメラ位置及び向きを求める場合、例えば、監視エリアAR0内又は周辺に設置された複数の位置標識を識別し、それら位置標識に基づいて、三角測量の方法を用いてウェアラブルカメラ100の位置及び向きを求めることができる。
属性情報保持部104には、ウェアラブルカメラ100のID(識別)情報、及び、撮像部101の画角情報が保持されている。カメラ視野情報生成部102は、生成したカメラ視野情報に、そのウェアラブルカメラのID情報を付加したものを、無線通信部105を介してサーバ装置20に送信する。
また、ウェアラブルカメラ100は、無線通信部105を介してサーバ装置20からのフィードバック量情報を受信する。フィードバック量情報は、フィードバック制御部106に入力される。フィードバック制御部106は、フィードバック量情報に応じてフィードバック出力部107の出力を制御する。
フィードバック出力部107は、上述したように、ウェアラブルカメラ100を携帯している監視員に、フィードバック量に応じたレベルの喚起出力を行う機器であり、スピーカやバイブレータ等である。なお、図2では、フィードバック出力部107がウェアラブルカメラ100に設けられている例が示されているが、フィードバック出力部107は、ウェアラブルカメラ100とは別体に設けられていてもよい。
図3に、サーバ装置200(20)の構成を示す。サーバ装置200は、無線通信部201と、画像収集・統合部202と、視野重複判定部203と、フィードバック量決定部204とを有する。なお、図3では、一例として、サーバ装置200は、無線通信部201を有する構成となっているが、図1に示したように、無線通信部201(図1における無線機21)は、サーバ装置200とは別個に設けられていてもよい。
図3において、サーバ装置200は、無線通信部201を介して、各ウェアラブルカメラ100(12−1〜12−5)から撮像画像を受信する。また、サーバ装置200は、無線通信部201を介して、各ウェアラブルカメラ100(12−1〜12−5)から、カメラ視野情報を受信する。
画像収集・統合部202は、各ウェアラブルカメラ100からの、撮像画像を入力し収集する。画像収集・統合部202は、各ウェアラブルカメラ100によって得られた撮像画像を、各ウェアラブルカメラ100からのカメラ視野情報を用いて、カメラ視野に関連付けて統合することもできる。また、画像収集・統合部202は、収集された撮像画像の各々に、どのエリアを撮像したものであるかを示すカメラ視野情報を付随させた表示画像を形成することもできる。画像収集・統合部202によって収集及び又は統合された撮像画像は、サーバ装置200に接続された表示部(図示せず)に表示される。
視野重複判定部203は、無線通信部201を介して、各ウェアラブルカメラ100(12−1〜12−5)から、カメラ視野情報及びID情報を受信する。視野重複判定部203は、これらの情報に基づいて、各ウェアラブルカメラ間のカメラ視野の重複量を計算する。
フィードバック量決定部204は、重複量に応じて各ウェアラブルカメラ100毎にフィードバック量を決定し、フィードバック量を示すフィードバック量情報を生成する。フィードバック量決定部204によって生成されたフィードバック量情報は、無線通信部201を介して、各ウェアラブルカメラ100に無線送信される。
次に、図4を用いて、ウェアラブルカメラ100及びサーバ装置200の動作について説明する。図4Aはウェアラブルカメラ100の動作を示し、図4Bはサーバ装置200の動作を示す。
先ず、ステップST11において、ウェアラブルカメラ100のカメラ視野情報生成部102は、センサ103からの情報に基づいてカメラ位置及び向きを検出する。次に、ステップST12において、カメラ視野情報生成部102は、属性情報保持部104からID情報、画角情報等のカメラ属性情報を取得する。次に、ステップST13において、カメラ視野情報生成部102は、カメラ位置、向き及び画角情報とを用いて、カメラ視野情報を生成し、これをID情報と共にサーバ装置200に送信する。
ここで、ステップST11−ST13の処理は、タイマ割り込み等により、一定周期毎に起動される。一定周期とは、例えば数十msecである。なお、一定周期は、これに限らない。
次に、ステップST21において、サーバ装置200は、各ウェアラブルカメラ100のカメラ視野情報を受信し、保存する。サーバ装置200は、複数のウェアラブルカメラ100からのカメラ視野情報を時分割又は周波数分割して受信する。
次に、ステップST22において、視野重複判定部203は、番号iのウェアラブルカメラ100のカメラ視野と他のカメラのカメラ視野との重複量を計算する。本実施の形態の場合、重複量は、次式によって求められる。
重複量 = 重複している面積×重複している部分の密度 ………(1)
ここで、本実施の形態の場合、式(1)における「密度」は、以下のいずれか1つ又は2つ以上の組み合わせによって定義されるものである。
・広角のカメラほど上記密度を小さく設定し(図5A)、狭角のカメラほど上記密度を大きく設定する(図5B)。
・カメラ視野の中心方向C0に近いほど上記密度を大きく設定する(図5C)。
・カメラから近いほど上記密度を大きく設定する(図5D)。
ここで、重複している部分に複数の密度が含まれる場合には、それら複数の密度の平均値を求めて、式(1)の密度として用いればよい。また、重複している部分に含まれる密度の中で最も大きい密度を選択して、式(1)の密度として用いてもよい。
また、式(1)の密度は、現在処理している番号iのカメラの密度のみを反映してもよく、現在処理している番号iのカメラの密度に加えて、重複している他のカメラの密度をも反映してもよい。
現在処理している番号iのカメラの密度のみを式(1)に反映させる場合、式(1)は、次式のように記述することができる。
重複量 = 重複している面積
×番号iのカメラの重複している部分の密度
………(2)
現在処理している番号iのカメラの密度に加えて、重複している他のカメラの密度をも反映させる場合、式(1)は、次式のように記述することができる。
重複量 = 重複している面積
×(番号iのカメラの重複している部分の密度+他のカメラの重複している部分の密度)
………(3)
式(1)の密度とは、単純に、重なりの濃さを示すものと考えてもよい。例えば、2つのカメラ視野が重複している場合には、密度は2であり、3つのカメラ視野が重複している場合には、密度は3であると考えてもよい。図5に示したようなパラメータを導入する利点は、撮像画像の品質を加味した重複量を求めることができる点である。
再び、図4に戻って、説明を続ける。ステップST23において、サーバ装置200のフィードバック量決定部204は、重複量に基づいてフィードバック量を決定し、フィードバック量を示すフィードバック量情報を生成する。ステップST24では、サーバ装置200が無線通信部201を介してフィードバック量情報を番号iのウェアラブルカメラ100に送信する。ステップST25では、番号iがインクリメントされる。これにより、ステップST22−ST23−ST24の処理が監視エリアAR0内の複数のウェアラブルカメラに対して実行され、各カメラにフィードバック量情報が送信される。
なお、ステップST22−ST25の処理は、タイマ割り込み等により、一定周期毎に起動される。一定周期とは、例えば数十msecである。なお、一定周期は、これに限らない。
ステップST14において、ウェアラブルカメラ100は、サーバ装置200からのフィードバック量情報を受信する。次に、ステップST15において、ウェアラブルカメラ100は、フィードバック制御部106によって、フィードバック量情報に応じたフィードバック制御量を形成し、このフィードバック制御量をフィードバック出力部107に送る。これにより、例えばスピーカやバイブレータ等であるフィードバック出力部107から、フィードバック量に応じた音声レベルや振動レベルが出力される。
つまり、カメラ視野の重複量が大きいウェアラブルカメラ100ほど、サーバ装置200から大きなフィードバック量が送信され、フィードバック出力部107から大きな音や大きな振動が出力される。これにより、重複量が大きい監視員ほど、移動が促される。
図6に、本実施の形態の複数カメラ監視システムによってなされる動作例を示す。
図6において、監視員11−2が携帯しているウェアラブルカメラ12−2のカメラ視野13−2は、監視員11−1が携帯しているウェアラブルカメラ12−1のカメラ視野13−1と領域M1で重複し、監視員11−3が携帯しているウェアラブルカメラ12−3のカメラ視野13−3と領域M2で重複している。
よって、サーバ装置200(20)から警備員11−2の携帯しているウェアラブルカメラ12−2には、領域M1の面積と領域M2の面積とを加算した面積に応じたフィードバック量情報が送信される。因みに、警備員11−1の携帯しているウェアラブルカメラ12−1には領域M1の面積に応じたフィードバック量情報が送信され、警備員11−3の携帯しているウェアラブルカメラ12−3には領域M2の面積に応じたフィードバック量情報が送信される。なお、ここでは説明を簡単化するために、上述した、重複部分の密度については考慮していない。
この結果、複数の警備員の中で警備員11−2に、最も大きなフィードバック量が与えられ、警備員11−2は大きな音や大きな振動等によって移動することを促される。
フィードバック出力によって促された警備員11−2は、図中の細い矢印のいずれの方向にも移動する可能性があるが、図では、警備員11−2が図中の太い矢印の方向に移動した場合が示されている。図には、移動後の警備員11−2’、移動後のウェアラブルカメラ12−2’、移動後のカメラ視野13−2’が示されている。図から、警備員11−2に移動を促したことにより、移動後の警備員11−2’のカメラ視野13−2’は重複領域がなくなっていることが分かる。つまり、監視エリアAR0を全体として見たときに、カメラ視野の重複が減少し、その分、死角領域が減少している。
このように、カメラ視野の重なり量が大きいウェアラブルカメラを携帯している監視員ほどフィードバック量を大きくしたことにより、カメラ視野の重複量が大きいウェアラブルカメラを携帯している監視員ほど移動が促され、その結果、効率的にカメラ視野を分散させて、死角領域を低減することができる。
以上説明したように、本実施の形態によれば、各カメラのカメラ視野を求めるカメラ視野算出部102と、各カメラ間のカメラ視野の重複量を求める視野重複判定部203と、重複量に基づいて、各カメラへのフィードバック量を決定するフィードバック量決定部204と、フィードバック量の情報を受信し、フィードバック量に応じたレベルの喚起出力を行うフィードバック出力部107と、を設けたことにより、比較的簡易な構成で、死角領域を低減できる複数カメラ監視システムを実現できる。
特に、ディスプレイ装置等を持たず、伝達可能な情報量が限られている監視員に対して、フィードバック量によって有効に移動を促すことにより、各監視員が動き回る環境下で迅速かつ効率的な死角補完を実現できる。
なお、上述の実施の形態では、ウェアラブルカメラ100側にカメラ視野情報生成部102を設けた場合について述べたが、ウェアラブルカメラからウェアラブルカメラの位置、向き、画角の情報を送信し、サーバ装置200側でこれらの情報に基づいて各ウェアラブルカメラのカメラ視野を求めるようにしてもよい。さらには、ウェアラブルカメラ100のセンサ103の情報をサーバ装置200側に送信することで、カメラ位置及び向きも、サーバ装置200側で求めるようにしてもよい。
また、上述の実施の形態では、視野重複判定部203及びフィードバック量決定部204を、サーバ装置に設けた例について述べたが、これらはサーバ装置とは別の装置に設けてもよい。要は、視野重複判定部203及びフィードバック量決定部204は、複数カメラを管理するセンター装置に設ければよい。そして、センター装置は、複数のカメラがマスタ−スレーブ構成とされている場合には、マスタであるカメラに設けられていてもよい。
さらに、本発明は、複数の固定カメラを設置する場合に適用しても、カメラ視野の重複領域の少ないカメラ配置を実現できるので有効である。例えば、固定カメラを設置する作業者にフィードバック出力部107を携帯させるようにすれば、作業者はフィードバック出力部107の出力に基づいて、カメラ視野の重複が少ない位置に順次固定カメラを設置することができるようになる。
[3]実施の形態2
本実施の形態では、ウェアラブルカメラ(端末)に応じてフィードバック量を制御する(優先度を付ける)ことを提示する。また、本実施の形態では、エリア重要度に応じてフィードバック量を制御することを提示する。
実施の形態1で説明した複数カメラ監視システムにおいては、カメラ視野が重複した場合、2人以上の監視員に移動を促すフィードバック量情報が送信される。しかし、実際上、カメラ視野の重複を解消するためには、必ずしも2人以上の監視員に移動を促す必要はなく、1人の監視員のみに移動を促せば十分な場合も多い。カメラ視野が重複した元になっている複数の監視員全てに移動を促すと、却って、別の監視員のカメラ視野との重複量が増大したり、監視エリア内全体を見た場合に重複量が発振するおそれもある。
これを考慮して、本実施の形態では、ウェアラブルカメラ(端末)に応じてフィードバック量を制御する(優先度を付ける)。例えば、過去一定時間の移動履歴の大きさから、動き回る可能性が高いと推定される監視員が携帯しているウェアラブルカメラには、大きな値の係数を乗じたフィードバック量を与えることで、重複量に対するフィードバック出力部107の出力を大きくする。この係数の乗算は、フィードバック量決定部204で行ってもよく、フィードバック制御部106で行ってもよい。逆に、動き回る可能性が低い監視員が携帯しているウェアラブルカメラには、小さな係数を乗じたフィードバック量を与えることで、重複量に対するフィードバック出力部107の出力を小さくする。
例えば、図7において、監視員11−2が動き回る可能性の高い監視員であり、監視員11−1、11−3が動き回る可能性の低い監視員と仮定する。すると、監視員11−2のウェアラブルカメラ12−2に重複量(M1+M2)に対してより大きなフィードバック量が与えられ、監視員11−1、11−3のウェアラブルカメラ12−1、12−3に重複量M1、M2に対してより小さなフィードバック量が与えられる。この結果、監視員11−1、11−3の移動を抑制し、監視員11−2のみに移動を促すことができるようになる。
また、カメラ画角の狭いカメラほど優先度を高くしてもよい(つまり、係数を大きくしてもよい)。
これにより被写体をより高精細に撮影することができる画角の狭いカメラで定常的に監視エリア内の特定領域の撮影を行いながら、これらの画角の狭いカメラがカバーしない監視エリア内の死角領域を画角の広いカメラで撮影するという死角補完が実現できる。
また、上記とは逆にカメラ画角の広いカメラほど優先度を高くしてもよい(つまり、係数を大きくしてもよい)。
これにより画角が広く他のカメラとの視野の重複が起こり易いカメラの動きを抑制して、画角の狭いカメラの視野を動かすことにより監視領域内の死角補完を実現することとなり、各カメラの動きが安定しやすいという効果が生じる。
これらカメラ画角に応じた優先度制御は監視の目的に応じて使い分けることが可能である。
また、重点監視エリアは特に重点的に監視したいエリアであり、カメラ視野が多少重複したとしても許容した方がよい。これを考慮して、本実施の形態では、図7に示されている重点監視エリアでカメラ視野が重複した場合、重複領域M3を形成しているウェアラブルカメラ12−4、12−5には、小さな値の係数を乗じたフィードバック量を与える。これにより、重点監視エリアを撮像しているウェアラブルカメラ12−4、12−5は移動が抑止される。これにより、重点監視エリアが死角領域となる可能性を低くすることができる。
図4との対応部分に同一符号を付して示す図8を用いて、本実施の形態の動作について説明する。図8Aはウェアラブルカメラ100の動作を示し、図8Bはサーバ装置200の動作を示す。ウェアラブルカメラ100の動作は、図4と同様である。
サーバ装置200のフィードバック量決定部204は、ステップST31において、視野重複量、端末係数及びエリア重要度係数を加重し、ステップST32において、加重された視野重複量に応じたフィードバック量情報を生成する。
本発明は、複数のカメラを用いて監視領域内の撮像画像を収集する複数カメラ監視システムに好適である。
10 複数カメラ監視システム
11−1、11−2、11−3、11−4、11−5 監視員
12−1、12−2、12−3、12−4、12−5、100 ウェアラブルカメラ
13−1、13−2、13−3、13−4、13−5 カメラ視野
20、200 サーバ装置
101 撮像部
102 カメラ視野情報生成部
103 センサ
104 属性情報保持部
105、201 無線通信部
106 フィードバック制御部
107 フィードバック出力部
202 画像収集・統合部
203 視野重複判定部
204 フィードバック量決定部
AR0 監視エリア

Claims (8)

  1. 複数のカメラにより得られた複数の撮像画像を収集して、監視画像を取得する複数カメラ監視システムであって、
    各カメラのカメラ視野を求めるカメラ視野算出部と、
    各カメラ間の前記カメラ視野の重複量を求める視野重複判定部と、
    前記重複量に基づいて、前記各カメラへのフィードバック量を決定するフィードバック量決定部と、
    前記各カメラへのフィードバック量の情報を送信するフィードバック量情報送信部と、
    前記フィードバック量の情報を受信し、前記フィードバック量に応じたレベルの喚起出力を行うフィードバック出力部と、
    を具備する複数カメラ監視システム。
  2. 前記視野重複判定部は、前記重複量を、前記カメラ視野が重なっている部分の面積と密度とに基づいて求める、
    請求項1に記載の複数カメラ監視システム。
  3. 前記フィードバック量決定部は、前記重複量と、各カメラに応じた優先度とに基づいて、前記各カメラへのフィードバック量を決定する、
    請求項1又は請求項2に記載の複数カメラ監視システム。
  4. 前記フィードバック量決定部は、前記重複量と、前記カメラ視野が重なっている監視エリアの重要度とに基づいて、前記各カメラへのフィードバック量を決定する、
    請求項1又は請求項2に記載の複数カメラ監視システム。
  5. 前記視野重複判定部、前記フィードバック量決定部及び前記フィードバック量情報送信部は、センター装置に設けられており、
    前記フィードバック出力部は、各カメラを保持している人物に、前記フィードバック量に応じた音又は振動を伝える音源又はバイブレータである、
    請求項1から請求項4のいずれか一項に記載の複数カメラ監視システム。
  6. 複数のカメラにより得られた複数の撮像画像を収集して、監視画像を取得する、複数カメラ監視システムに用いられる携帯端末装置であって、
    カメラと、
    他のカメラとのカメラ視野の重複量に基づいて決定されたフィードバック量に応じたレベルの喚起出力を行うフィードバック出力部と、
    を具備する携帯端末装置。
  7. 複数のカメラにより得られた複数の撮像画像を収集して、監視画像を取得する、複数カメラ監視システムに用いられるセンター装置であって、
    各カメラ間の前記カメラ視野の重複量を求める視野重複判定部と、
    前記重複量に基づいて、前記各カメラへのフィードバック量を決定するフィードバック量決定部と、
    前記各カメラへのフィードバック量の情報を送信するフィードバック量情報送信部と、
    を具備するセンター装置。
  8. 複数のカメラにより得られた複数の撮像画像を収集して、監視画像を取得する複数カメラ監視方法であって、
    各カメラのカメラ視野を求めるカメラ視野算出ステップと、
    各カメラ間の前記カメラ視野の重複量を求める視野重複判定ステップと、
    前記重複量に基づいて、前記各カメラへのフィードバック量を決定するフィードバック量決定ステップと、
    前記フィードバック量に応じたレベルの喚起出力を行うフィードバック出力ステップと、
    を含む複数カメラ監視方法。
JP2009269116A 2009-11-26 2009-11-26 複数カメラ監視システム、携帯端末装置、センター装置及び複数カメラ監視方法 Pending JP2011114580A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009269116A JP2011114580A (ja) 2009-11-26 2009-11-26 複数カメラ監視システム、携帯端末装置、センター装置及び複数カメラ監視方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009269116A JP2011114580A (ja) 2009-11-26 2009-11-26 複数カメラ監視システム、携帯端末装置、センター装置及び複数カメラ監視方法

Publications (1)

Publication Number Publication Date
JP2011114580A true JP2011114580A (ja) 2011-06-09

Family

ID=44236598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009269116A Pending JP2011114580A (ja) 2009-11-26 2009-11-26 複数カメラ監視システム、携帯端末装置、センター装置及び複数カメラ監視方法

Country Status (1)

Country Link
JP (1) JP2011114580A (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013111493A1 (ja) * 2012-01-23 2013-08-01 日産自動車株式会社 監視システム
WO2014203523A1 (ja) * 2013-06-18 2014-12-24 パナソニックIpマネジメント株式会社 撮影位置決定装置及び撮影位置決定方法
JP2016123004A (ja) * 2014-12-25 2016-07-07 三菱電機株式会社 撮像装置の設置支援装置、撮像装置の設置支援方法および映像記録再生装置
WO2018105654A1 (ja) * 2016-12-08 2018-06-14 シャープ株式会社 走行制御装置、走行制御方法、記録媒体及び自律走行装置
JP2018137515A (ja) * 2017-02-20 2018-08-30 セコム株式会社 監視システム
JP2018137691A (ja) * 2017-02-23 2018-08-30 セコム株式会社 監視システム、及び監視方法
JP2018137514A (ja) * 2017-02-20 2018-08-30 セコム株式会社 監視支援装置及び監視システム
JP2018170573A (ja) * 2017-03-29 2018-11-01 セコム株式会社 監視システム
JP2020017301A (ja) * 2014-03-31 2020-01-30 日本電気株式会社 画像処理方法、画像処理システムおよび画像処理端末
JP2021051781A (ja) * 2015-09-02 2021-04-01 日本電気株式会社 イベント監視システム、イベント監視方法、およびプログラム
JP2022009671A (ja) * 2015-07-02 2022-01-14 日本電気株式会社 監視方法、監視システムおよびコンピュータプログラム
US12035077B2 (en) 2015-07-02 2024-07-09 Nec Corporation Surveillance system with fixed camera and temporary cameras

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013111493A1 (ja) * 2012-01-23 2013-08-01 日産自動車株式会社 監視システム
JPWO2014203523A1 (ja) * 2013-06-18 2017-02-23 パナソニックIpマネジメント株式会社 撮影位置決定装置及び撮影位置決定方法
US9905010B2 (en) 2013-06-18 2018-02-27 Panasonic Intellectual Property Management Co., Ltd. Image position determination device and image position determination method for reducing an image of a closed eye person
WO2014203523A1 (ja) * 2013-06-18 2014-12-24 パナソニックIpマネジメント株式会社 撮影位置決定装置及び撮影位置決定方法
US11798211B2 (en) 2014-03-31 2023-10-24 Nec Corporation Image processing system, image processing method and program, and device
JP2020017301A (ja) * 2014-03-31 2020-01-30 日本電気株式会社 画像処理方法、画像処理システムおよび画像処理端末
JP7001086B2 (ja) 2014-03-31 2022-01-19 日本電気株式会社 映像監視方法、映像監視システムおよび映像監視端末
US11100691B2 (en) 2014-03-31 2021-08-24 Nec Corporation Image processing system, image processing method and program, and device
JP2016123004A (ja) * 2014-12-25 2016-07-07 三菱電機株式会社 撮像装置の設置支援装置、撮像装置の設置支援方法および映像記録再生装置
JP2022009671A (ja) * 2015-07-02 2022-01-14 日本電気株式会社 監視方法、監視システムおよびコンピュータプログラム
US12035077B2 (en) 2015-07-02 2024-07-09 Nec Corporation Surveillance system with fixed camera and temporary cameras
US11917334B2 (en) 2015-07-02 2024-02-27 Nec Corporation Surveillance system with fixed camera and temporary cameras
JP7367744B2 (ja) 2015-07-02 2023-10-24 日本電気株式会社 監視方法、監視システムおよびコンピュータプログラム
US11277591B2 (en) 2015-09-02 2022-03-15 Nec Corporation Surveillance system, surveillance network construction method, and program
JP2021051781A (ja) * 2015-09-02 2021-04-01 日本電気株式会社 イベント監視システム、イベント監視方法、およびプログラム
JP7067604B2 (ja) 2015-09-02 2022-05-16 日本電気株式会社 イベント監視システム、イベント監視方法、およびプログラム
WO2018105654A1 (ja) * 2016-12-08 2018-06-14 シャープ株式会社 走行制御装置、走行制御方法、記録媒体及び自律走行装置
JP2018137514A (ja) * 2017-02-20 2018-08-30 セコム株式会社 監視支援装置及び監視システム
JP2018137515A (ja) * 2017-02-20 2018-08-30 セコム株式会社 監視システム
JP2018137691A (ja) * 2017-02-23 2018-08-30 セコム株式会社 監視システム、及び監視方法
JP2018170573A (ja) * 2017-03-29 2018-11-01 セコム株式会社 監視システム

Similar Documents

Publication Publication Date Title
JP2011114580A (ja) 複数カメラ監視システム、携帯端末装置、センター装置及び複数カメラ監視方法
US10360728B2 (en) Augmented reality device, system, and method for safety
US20100080418A1 (en) Portable suspicious individual detection apparatus, suspicious individual detection method, and computer-readable medium
JP2017529521A (ja) 社会的且つ環境的認識を提供する装用可能イヤピース
US20210289290A1 (en) Sound reproduction device and sound reproduction system
JP7040580B2 (ja) 映像収集システム、映像収集方法及びプログラム
WO2014162554A1 (ja) 画像処理システムおよび画像処理用プログラム
TW200844912A (en) Warning a user about adverse behaviors of others within an environment based on a 3D captured image stream
US20190108405A1 (en) Globally optimized recognition system and service design, from sensing to recognition
JP2015159383A (ja) ウェアラブル機器、制御装置、撮影制御方法および自動撮像装置
US20190108404A1 (en) Consumer Camera System Design for Globally Optimized Recognition
JP6812976B2 (ja) 監視システム、監視ネットワーク構築方法、およびプログラム
JP6157170B2 (ja) 監視支援システム
JP5987538B2 (ja) 制御装置、プログラムおよび制御システム
JP2024022678A (ja) 追跡支援装置、端末、追跡支援システム、追跡支援方法及びプログラム
JP6720010B2 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2019021973A1 (ja) 端末装置、危険予測方法、記録媒体
JP2018170573A (ja) 監視システム
JP6941458B2 (ja) 監視システム
JP2022091787A (ja) 情報処理システム、情報処理装置、サーバ装置、プログラム、又は方法
JP6515473B2 (ja) 動作指示システム、動作指示方法、および、動作指示管理サーバ
JP2018038027A (ja) カメラ制御装置、カメラ制御方法およびプログラム
JP2018136758A (ja) 監視システム
JP2016151841A (ja) ステレオ・カメラによる物体の存在の判別方法、デバイス制御システム、およびコンピュータ・プログラム
JP2018036847A (ja) 情報処理システム