JP2021013111A - カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム - Google Patents

カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム Download PDF

Info

Publication number
JP2021013111A
JP2021013111A JP2019126887A JP2019126887A JP2021013111A JP 2021013111 A JP2021013111 A JP 2021013111A JP 2019126887 A JP2019126887 A JP 2019126887A JP 2019126887 A JP2019126887 A JP 2019126887A JP 2021013111 A JP2021013111 A JP 2021013111A
Authority
JP
Japan
Prior art keywords
space
evaluation
visible
camera
overlapping
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019126887A
Other languages
English (en)
Other versions
JP7332363B2 (ja
Inventor
一徳 大西
Kazunori Onishi
一徳 大西
利彦 櫻井
Toshihiko Sakurai
利彦 櫻井
昇平 國松
Shohei Kunimatsu
昇平 國松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2019126887A priority Critical patent/JP7332363B2/ja
Publication of JP2021013111A publication Critical patent/JP2021013111A/ja
Application granted granted Critical
Publication of JP7332363B2 publication Critical patent/JP7332363B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)

Abstract

【課題】複数の監視カメラの可視空間の重複空間の撮影状態を評価する。【解決手段】カメラ配置評価装置1は、複数のカメラ(43a、43b)の位置、画角及び撮影方向を表すカメラ情報21を記憶する記憶部2と、カメラ情報21に基づいて、監視空間40における複数のカメラの可視空間(Sa、Sb)をそれぞれ算出する可視空間算出部30と、可視空間どうしの重複空間Sopを求め、重複空間内の所定の評価地点から複数のカメラの位置までのそれぞれの方向に応じて重複空間の撮影状態の評価値を算出する重複評価部32と、を備える。【選択図】図2

Description

本発明は、カメラの配置を評価するカメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラムに関する。
監視空間に監視カメラを設置する際には、所望の監視目的を達成するための監視カメラの配置条件(位置・姿勢・画角等)を事前に計画(プランニング)する。
従来より複数の監視カメラにより1つの監視空間を監視する場合に、監視カメラによって撮影されない死角領域をできるだけ少なくし、少ない台数の監視カメラでより広い領域を撮影することによって効率的な監視を行うことが提案されている。
複数の監視カメラの視野が無駄に重複すると、これに伴って、撮像されない死角領域が増大すると考えられる。このため例えば、下記特許文献1の複数カメラ監視システムは、各カメラ間のカメラ視野を求め、各カメラ間のカメラ視野の重複量を求め、当該重複量に応じたレベルの音などの喚起出力を行う。これにより、監視員がカメラ視野の重複を容易に把握することを可能にする。
特開2011−114580号公報
しかしながら、プランニング要件によっては、例えば監視空間内の特定の空間を異なる方向から監視したい場合など、複数の監視カメラの可視空間が重複していても無駄ではないことがある。
本発明は、上記の問題点を鑑みてなされたものであり、複数の監視カメラの可視空間の重複空間の撮影状態を評価することを目的とする。
本発明の一形態によるカメラ配置評価装置は、複数のカメラの位置、画角及び撮影方向を表すカメラ情報を記憶する記憶部と、カメラ情報に基づいて、監視空間における複数のカメラの可視空間をそれぞれ算出する可視空間算出部と、可視空間どうしの重複空間を求め、該重複空間内の所定の評価地点から複数のカメラの位置までのそれぞれの方向に応じて該重複空間の撮影状態の評価値を算出する重複評価部と、を備える。
本発明の他の形態によるカメラ配置評価方法は、コンピュータに、複数のカメラの位置、画角及び撮影方向を表すカメラ情報を記憶装置から読み出す情報読出ステップと、カメラ情報に基づいて、監視空間における複数のカメラの可視空間をそれぞれ算出する可視空間算出ステップと、可視空間どうしの重複空間を求め、該重複空間内の所定の評価地点から複数のカメラの位置までのそれぞれの方向に応じて該重複空間の撮影状態の評価値を算出する重複評価ステップと、を実行させる。
本発明の更に他の形態によるコンピュータプログラムは、コンピュータに、複数のカメラの位置、画角及び撮影方向を表すカメラ情報を記憶装置から読み出す情報読出ステップと、カメラ情報に基づいて、監視空間における複数のカメラの可視空間をそれぞれ算出する可視空間算出ステップと、可視空間どうしの重複空間を求め、該重複空間内の所定の評価地点から複数のカメラの位置までのそれぞれの方向に応じて該重複空間の撮影状態の評価値を算出する重複評価ステップと、を実行させる。
本発明によれば、複数の監視カメラの可視空間の重複空間の撮影状態を評価できる。
本発明の実施形態のカメラ配置評価装置の一例の概略構成図である。 複数の監視カメラの可視空間の重複空間の撮影状態の評価方法の概略説明図である。 (a)はカメラと監視空間内の構造物の配置例の説明図であり、(b)はカメラ座標系と、背景面と、カメラの視錐体の説明図である。 (a)及び(b)は、可視候補領域の算出方法の説明図である。 (a)及び(b)は可視領域の算出方法の説明図であり、(c)はカメラの可視空間を構成する角錐の説明図である。 (a)は一対のカメラの可視空間をそれぞれ構成する角錐同士が重複する例を示す図であり、(b)は重複空間の説明図であり、(c)は重複空間を画定する境界面の説明図である。 (a)及び(b)は、境界面の算出方法の説明図である。 (a)及び(b)は、重複空間の撮影状態の評価値の算出方法の第1例及び第2例の説明図である。 重複空間の撮影状態の評価値の算出方法の第3例の説明図である。 (a)及び(b)は、複数カメラの可視空間の重複空間が表された監視空間の仮想画像の第1例及び第2例の概略説明図である。 本発明の実施形態のカメラ配置評価方法の一例のフローチャートである。
以下において、図面を参照して本発明の実施形態を説明する。なお、以下に示す本発明の実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。
(構成)
図1を参照する。実施形態のカメラ配置評価装置1は、例えばコンピュータにより構成され、記憶部2と、制御部3とを備える。
記憶部2は、半導体記憶装置、磁気記憶装置及び光学記憶装置のいずれかを備えてよい。記憶部2は、レジスタ、キャッシュメモリ、主記憶装置として使用されるROM(Read Only Memory)及びRAM(Random Access Memory)等のメモリを含んでよい。
制御部3は、例えば、CPU(Central Processing Unit)やMPU(Micro-Processing Unit)等のプロセッサと、その周辺回路によって構成される。
以下に説明する制御部3の機能は、例えば、記憶部2に格納されたコンピュータプログラムであるカメラ配置評価プログラム20を、制御部3が備えるプロセッサが実行することによって実現される。
入力装置4は、カメラ配置評価装置1の動作を制御するために、カメラプランニングの実施者や、監視従事者、管理者など(以下、「プランニング実施者等」と表記する)が操作するマウスやキーボードなどである。入力装置4は、カメラ配置評価装置1に接続され、入力装置4から各種情報がカメラ配置評価装置1に入力される。
カメラ配置評価装置1は、所定の監視空間内を撮像する複数の監視カメラをある配置条件で設置した場合の複数の監視カメラの可視空間をシミュレーションによりそれぞれ算出し、これら可視空間どうしが重複する重複空間を算出する。カメラ配置評価装置1は、重複空間の撮影状態の評価値を算出する。
さらにカメラ配置評価装置1は、監視空間の3次元モデルに基づいて監視空間を表す仮想画像を生成する。カメラ配置評価装置1は、重複空間の撮影状態の評価値に応じて仮想画像上の重複空間の表示を設定する。
出力装置5は、ディスプレイ、プロジェクタ、プリンタなどであり、カメラ配置評価装置1が算出した評価値と、カメラ配置評価装置1が生成した仮想画像を出力する。
次に、カメラ配置評価装置1による重複空間の撮影状態の評価方法の概要を説明する。
図2を参照する。いま、屋外空間や、構造物によって形成される屋内空間等である監視空間40を、複数の監視カメラ43a及び43bで撮影する場合を想定する。なお、監視空間40を撮影する監視カメラの個数は2個に限定されず、3個以上の監視カメラで監視空間40を撮影してもよい。
まず、カメラ配置評価装置1は、監視カメラ43a及び43bの位置(例えば焦点位置)、画角及び撮影方向を表すカメラ情報に基づいて、監視空間40における監視カメラ43a及び43bの可視空間Sa及びSbをそれぞれ算出する。2本の破線で挟まれた範囲Saが監視カメラ43aの可視空間を示し、2本の一点鎖線で挟まれた範囲Sbが監視カメラ43bの可視空間を示す。
次に、カメラ配置評価装置1は、可視空間Sa及びSbの重複空間Sopを算出する。カメラ配置評価装置1は、重複空間Sop内の所定の評価地点Peから監視カメラ43a及び43bそれぞれの位置までの方向Dra及びDrbに応じて重複空間Sopの撮影状態の評価値を算出する。
このように、重複空間Sopを撮影する複数の監視カメラの各々の撮影方向に応じた評価値を算出することにより、複数の監視カメラによる重複空間Sopの撮影状態を評価することができる。例えば、複数の監視カメラが互いに近い方向から重複空間Sopを撮影しているのか、又は全く異なる方向から撮影しているのかを評価できる。
以下、カメラ配置評価装置1の詳細を説明する。図1を参照する。記憶部2には、上述のカメラ配置評価プログラム20のほか、カメラ情報21と、構造物情報22が格納されている。
カメラ情報21は、いわゆるカメラパラメータであり、複数の監視カメラ43a及び43bの各々の配置条件として、3次元的な位置と、撮影方向を表すヨー角、ロール角及びピッチ角と、画角と、アスペクト比と、解像度と、焦点距離などの、監視カメラ43a及び43bの外部パラメータ及び内部パラメータを含む。監視カメラ43a及び43bの位置は典型的には焦点位置である。監視カメラ43a及び43bの位置を近似的にレンズ中心位置としてもよい。或いは、カメラ情報21に監視カメラ43a及び43bの設置位置や監視カメラ43a及び43bのカメラ構造を設定し、これらから焦点位置又はレンズ中心位置を求めるようにしてもよい。
構造物情報22は、監視空間40に存在する現実世界の構造物(什器,樹木等の物体を含む)の位置、形状、構造などを表す3次元の幾何形状データ(すなわち3次元モデル)である。すなわち、構造物情報22は監視空間40の3次元モデルを表す。
カメラ情報21と構造物情報22に基づいて監視空間40内に監視カメラと構造物とを配置した一例を図3の(a)に示す。構造物情報22は、監視空間40内の構造物41及び42の幾何形状データを含む。また、カメラ情報21は、監視空間40における監視カメラ43a及び43bの配置条件を示す。
構造物情報22を生成するための幾何形状データは、3次元CADやBIM(Building Information Modeling)で作成されたものでもよいし、3次元レーザースキャナー等により監視空間に存在する構造物の3次元形状を取り込んだデータでもよい。構造物情報22を生成するための幾何形状データは、航空機からステレオ撮影やレーザ測距を行うことによって作成された高さ情報も含む立体形状をポリゴンデータによって表したデータであってもよい。
なお、これらの3次元の幾何形状データは四面体分割されていてもよい。四面体分割された3次元データを取り扱うことにより、後述の演算処理をより高速に実行することができる。
制御部3は、記憶部2に記憶されたカメラ配置評価プログラム20を読み出して実行し、可視空間算出部30と、重複空間算出部31と、重複評価部32と、画像生成部33として機能する。
可視空間算出部30は、監視カメラ43a及び43bの各々の可視空間を算出する。可視空間は、監視カメラの位置から見える3次元的な範囲である。以下、複数の監視カメラ43a及び43bを総称して「監視カメラ43」と表記することがある。
まず、可視空間算出部30は、構造物情報22により表された構造物41及び42の座標を、監視カメラ43の位置を原点とするカメラ座標系の座標に変換する。
図3の(b)を参照する。カメラ座標系として様々な座標系を採用できるが、例えばカメラの視軸が負のZ軸方向を向いた右手座標系としてよい。
次に、可視空間算出部30は、最低画素密度の設定入力を受け付ける。最低画素密度は、現実世界における単位長をカメラ画像中において最低何ピクセルで写す必要があるかを規定する下限値である。プランニング実施者は、入力装置4を用いて最低画素密度の設定値を入力する。
可視空間算出部30は、設定された最低画素密度とカメラ情報21とに基づいて定まる、監視カメラ43の位置からの距離範囲に、監視カメラ43の光軸に対して垂直な背景面44を設定する。例えば当該距離範囲は、背景面44の位置の物体が最低画素密度で撮影できるように設定することができる。また、プランニング実施者が任意に距離範囲を設定してもよい。
可視空間算出部30は、背景面44を底面とし、監視カメラ43の撮影範囲の方位角、仰角、俯角を表す側面を有する角錐50を、監視カメラの視錐体50として算出する。視錐体50は、監視カメラ43の画角とアスペクト比で求められた直線50a、50b、50c及び50dと、背景面44とで囲まれた空間である。
なお、視錐体50の底面の4角形を2つの3角形に分割して、2つの四面体の集合を監視カメラ43の視錐体としてもよい。
可視空間算出部30は、構造物41、42の表面及び背景面44の領域のうち監視カメラ43の位置から見える可視領域を算出する。
まず、可視空間算出部30は、構造物情報22に定義されている構造物と視錐体50との接触判定(交差判定)を行う。視錐体50並びに構造物が四面体で構成されている場合には、GPR(Ganovelli,Ponchio,Rocchini)アルゴリズムを用いることにより、四面体の間の接触判定をより高速に行うことができる。それ以外の場合には、バウンディングボックスやSAT(Separating Axis Theorem)アルゴリズムを用いて視錐体50と構造物とが接触(交差)しているか否かを判定できる。
可視空間算出部30は、構造物情報22に定義されている構造物のうち視錐体50に接触(交差)している構造物41、42を選択して以降の処理を行う。
次に、可視空間算出部30は、視錐体50に接触(交差)している構造物41、42の表面領域のうち監視カメラ43に向いている領域を選択する。例えば、構造物41、42の表面領域の法線方向が構造物41、42の外側を向く方向であると定義すると、可視空間算出部30は、監視カメラ43の光軸と表面領域の法線との内積が負になるとき、表面領域が監視カメラ43に向いていると判定できる。
可視空間算出部30は、監視カメラ43に向いている構造物41、42の表面領域と視錐体50との交差領域を、可視候補領域として算出する。また、可視空間算出部30は、視錐体50の底面を可視候補領域に設定する。
可視空間算出部30は、これらの可視候補領域を三角形に分割してもよい。
図4の(a)を参照して、構造物41の表面領域のうち監視カメラ43に向いている領域41aと視錐体50との交差領域を算出する処理を説明する。
可視空間算出部30は、領域41aが存在する平面61と、監視カメラ43の画角とアスペクト比で求められた視錐体50の斜辺50a〜50dとの交点61a、61b、61c及び61dを算出する。
可視空間算出部30は、交点61a〜61dを結んだ凸領域と領域41aとが2次元平面上で重複する領域を、領域41aと視錐体50との交差領域として算出し、可視候補領域とする。
図4の(a)の例では、交点61a〜61dを結んだ凸領域内に領域41aが全て含まれるので、領域41a全てが可視候補領域となる。
図4の(b)を参照して、構造物42の表面領域のうち監視カメラ43に向いている領域42aと視錐体50との交差領域を算出する処理を説明する。
可視空間算出部30は、領域42aが存在する平面62と、視錐体50の斜辺50a〜50dとの交点62a、62b、62c及び62dを算出する。
可視空間算出部30は、交点62a〜62dを結んだ凸領域と領域42aとが2次元平面上で重複する領域42bを、領域42aと視錐体50との交差領域として算出し、可視候補領域とする。
次に、可視空間算出部30は、これら可視候補領域の各々について、他の可視候補領域により監視カメラ43から遮蔽されるか否かを判断する。監視カメラ43から見て、ある可視候補領域の手前に他の可視候補領域が存在する場合には、全部又は一部が遮蔽されて監視カメラ43から見えなくなるからである。
ある可視候補領域が、監視カメラ43から見て手前の他の可視候補領域によって遮蔽される場合には、遮蔽される部分を除いて可視領域を算出する。
複数の他の可視候補領域が監視カメラ43から見て手前に存在している場合には、これら複数の可視候補領域により遮蔽される全ての部分を除いて可視領域を算出する。
図5の(a)を参照して、構造物41の可視候補領域41aから可視領域を算出する処理を説明する。
監視カメラ43から見て可視候補領域41aの手前には、他の可視候補領域が存在しないので他の可視候補領域により遮蔽される部分はない。このため、可視空間算出部30は、可視候補領域41aの全ての領域を可視領域51とする。
図5の(b)を参照して、構造物42の可視候補領域42bから可視領域を算出する処理を説明する。監視カメラ43から見て可視候補領域42bの手前には、他の可視候補領域41aが存在している。このため、可視空間算出部30は、可視候補領域42bから可視候補領域41aにより遮蔽される部分を除いた範囲52を可視領域とする。
可視空間算出部30は、監視カメラ43の位置と他の可視候補領域41aの頂点71a、71b、71c及び71dとを結んだ直線の延長線と可視候補領域42bが存在する平面との交点72a、72b、72c及び72dを算出する(交点72cは不図示)。
可視空間算出部30は、交点72a〜72dを結んだ凸領域と可視候補領域42bとが2次元平面上で重複する領域を求め、これを可視候補領域42bから除いて可視領域52を算出する。
また、可視空間算出部30は、視錐体50の底面のうち構造物41、42の可視候補領域41a、42bによって遮蔽される領域を除いた範囲を、可視領域として算出する。
図5の(c)を参照する。可視空間算出部30は、算出した可視領域を凸多角形に分割する。図5の(c)の例では、可視領域51を3角形51a及び51bに分割し、可視領域52を3角形52a及び52bに分割する。同様に可視空間算出部30は、背景面44上の可視領域についても3角形等の凸多角形に分割する。
可視空間算出部30は、監視カメラ43の位置を頂点とし、分割された可視領域を底面とする角錐を算出する。図5の(c)の例では、監視カメラ43の位置を頂点とし可視領域52aを底面とする角錐56を算出する。可視領域52aが3角形である場合には、角錐56は四面体となる。
可視空間算出部30は、可視領域51a、51b及び52b、並びに背景面44上の可視領域についても同様に角錐を算出する。
可視空間算出部30は、これら算出した角錐が占める空間の集合を監視カメラ43の可視空間として算出する。以上により監視カメラ43の可視空間を求めることができる。
なお、上記の監視カメラ43の可視空間の算出方法はあくまでも一例であり、本発明はこれに限定されるものではない。
可視空間算出部30は、監視カメラ43の可視空間を求めることが可能な様々な算出方法を採用することができる。例えば、可視か否かを判定すべき点やボクセルを監視空間40内に離散的に配置して、これらの点又はボクセルが監視カメラ43から見えるか否かをレイトレーシング法によってそれぞれ判定して可視空間を算出してもよい。
図1を参照する。重複空間算出部31は、複数の監視カメラ43の各々の可視空間どうしが重複する重複空間を算出する。
例えば、上述したように可視空間を角錐の集合として算出した場合には、重複空間算出部31は、以下の方法によって重複空間を算出してよい。
この方法では、重複空間算出部31は、複数の監視カメラ43のうちの一対の監視カメラ43の全ての組み合わせについて各々の可視空間どうしの間の重複空間を算出する。重複空間算出部31は、全ての組み合わせについて算出した重複空間の全体が占める空間を、複数の監視カメラ43の可視空間どうしの重複空間として算出する。
以下、一対の監視カメラ43の各々の可視空間どうしの間の重複空間の算出方法を説明する。上記の通り、可視空間の各々は、監視カメラの位置を頂点とし可視領域を底面とする角錐の集合で構成されている。重複空間算出部31は、一対の監視カメラの一方の可視空間を構成する各々の角錐と、他方の監視カメラの可視空間を構成する各々の角錐とが重複する各々の角錐重複空間を算出する角錐重複空間算出部34を備える。
角錐重複空間算出部34が、一対の監視カメラの可視空間を構成する角錐の各々の角錐重複空間を全て算出すると、重複空間算出部31は、角錐重複空間算出部34が算出した角錐重複空間を合計して、一対の監視カメラの可視空間どうしの重複空間を算出する。
角錐重複空間算出部34による角錐重複空間の算出方法を説明する。図6の(a)及び図6の(b)を参照する。角錐80は、一方の監視カメラの可視空間を構成する角錐の一つであり、角錐81は、他方の監視カメラの可視空間を構成する角錐の一つである。角錐80及び81が重複する空間82が角錐重複空間である。図示の通り、可視領域が3角形である場合には角錐80及び81は四面体となる。
角錐重複空間算出部34は、一方の監視カメラの可視空間を構成する各々の角錐と他方の監視カメラの可視空間を構成する各々の角錐との全ての組合せについて接触判定し、接触する場合には角錐重複空間を算出する。接触判定には、例えば上述のGPRアルゴリズム、バウンディングボックスやSATアルゴリズムを用いることができる。
図6の(c)を参照する。角錐重複空間算出部34は、角錐重複空間82の表面を画定する境界面82a、82b、82c、82d及び82eを算出し、これらの境界面82a〜82eにより囲まれる空間を角錐重複空間82として算出する。
図1を参照する。角錐重複空間算出部34は、境界面82a〜82eの各々を算出する境界面算出部35を備える。
図7の(a)を参照する。接触判定によって互いに接触する(重複する)1対の角錐が検出されると、境界面算出部35は、これら角錐のうち一方を第1角錐80として選択し、他方を第2角錐81として選択する。
境界面算出部35は、第1角錐80を形成する面80A、80B、80C及び80Dのうちいずれか1つの面を選択する。図7の(a)の例では面80Aを選択する。
また境界面算出部35は、第2角錐81の頂点81a、81b、81c及び81dのうちいずれか1つの頂点を選択する。図7の(a)の例では頂点81aを選択する。
図7の(b)を参照する。境界面算出部35は、選択した頂点81aと残りの頂点81b〜81dとを各々結ぶ線分83b、83c及び83dの全てが、選択した面80Aが存在する平面82と交差するか否かを判定する。すなわち、頂点81aから見て、頂点81b〜81dの全てが面80Aの裏側に存在するか否かを判断する。
線分83b〜83dの全てが平面82と交差する場合、境界面算出部35は、線分83b〜83dが平面82と交差する交点84b、84c及び84dを算出する。
境界面算出部35は、交点84b〜84dを結ぶ多角形84と面80Aとの重複領域(ハッチングされた領域)を境界面82bとして算出する。
一方で、線分83b〜83dの全てが平面82と交差しない場合には、交点84b〜84dを結ぶ多角形84を算出できないので境界面を算出できない。したがって、この場合には、面80Aと頂点81aとの組み合わせに関して境界面の算出を中止する。
上記の処理を、第1角錐80を形成する面80A〜80Dと第2角錐81の頂点81a〜81dの全ての組合せについて行い、さらに第1角錐80及び第2角錐81として選択される角錐を互いに入れ替えて同じ処理を繰り返すと、角錐重複空間82の表面を画定する境界面82a〜82eが全て算出される。
なお、上記の可視空間どうしの重複空間の算出方法はあくまでも一例であり、本発明はこれに限定されるものではない。重複空間算出部31は、複数の監視カメラ43の可視空間どうしの重複空間を求めることが可能な様々な算出方法を採用することができる。
例えば、上記のレイトレーシング法による可視空間の算出方法と同様に、重複空間算出部31は、同時に複数の監視カメラ43から可視な点又はボクセルが占める空間を重複空間として算出してよい。
図1を参照する。重複評価部32は、重複空間の撮影状態の評価値を算出する。まず、重複評価部32は、重複空間内の代表地点として1個又は複数の評価地点を監視空間内に設定する。例えば、重複評価部32は、重複空間の重心に1個の重複空間を配置してもよく、重複空間内に離散的に複数の評価地点を配置してもよい。この場合、重複空間内に均等に評価地点を配置してもよい。また、図6の(c)に示すように重複空間が多面体として算出される場合にはこれらの頂点の各々に評価地点を配置してもよい。
次に、重複評価部32は、評価地点から複数の監視カメラ43の位置までのそれぞれの方向に応じて重複空間の撮影状態の評価値を算出する。
図8の(a)を参照する。例えば重複評価部32は、評価地点に仮想的な単位球90の3次元モデルを配置する。重複評価部32は、単位球90の表面のどの部分が複数の監視カメラ43a及び43bの可視領域になっているのかそれぞれ算出する。図8の(a)の例では、太線の破線91aが監視カメラ43aの可視領域を示し、太線の一点鎖線91bが監視カメラ43aの可視領域を示す。
単位球90の3次元モデルが疑似的にポリゴンによって形成されている場合、重複評価部32は、上述の構造物41及び42の可視領域と同様の方法により、単位球90の可視領域を算出してよい。
また、重複評価部32は、単位球90の表面上に離散的に配置した点の各々において複数の監視カメラ43a及び43bから見えるか否かをレイトレーシング法で判定して可視領域を算出してもよい。
重複評価部32は、複数の監視カメラ43a及び43bの可視領域91a及び91bに応じて重複空間の撮影状態の評価値を算出する。例えば、重複評価部32は、可視領域91a及び91bの重複度合いを測る評価値として、可視領域91a及び91bの重複領域(論理積領域AND)の面積と、可視領域91a及び91bの論理和領域(OR)の面積との割合を算出する。すなわち重複評価部32は、((重複領域の面積)/(論理和領域の面積))又は((論理和領域の面積)/(重複領域の面積))のいずれかを算出する。いずれを分母とするかは評価値の使用用途に応じて定めることができる。
また例えば、重複評価部32は単位球90に対する可視領域のカバー率を図る指標として、可視領域91a及び91bの論理和領域(OR)の面積と単位球90の表面積との割合を算出してもよい。すなわち重複評価部32は、((論理和領域の面積)/(単位球90の表面積))又は((単位球90の表面積)/(論理和領域の面積))のいずれかを算出する。いずれを分母とするかは評価値の使用用途に応じて定めることができる。
図8の(b)を参照する。重複評価部32は、例えば人や車などの凹凸のあるオブジェクト92の3次元モデルを単位球90に代えて配置してもよい。重複評価部32は、オブジェクト92の表面のどの部分が複数の監視カメラ43a及び43bの可視領域になっているのかそれぞれ算出する。図8の(b)の例では、太線の破線93aが監視カメラ43aの可視領域を示し、太線の一点鎖線93bが監視カメラ43aの可視領域を示す。
重複評価部32は、単位球90の場合と同様に、可視領域93a及び93bに応じて重複空間の撮影状態の評価値を算出する。
また、単位球90の表面上に離散的に配置した点の各々において複数の監視カメラ43a及び43bから見えるか否かをレイトレーシング法で判定した場合には、可視領域の面積に代えて監視カメラ43a及び43bから見える点の総数を用いてもよい。
図9を参照する。単位球90の表面上に離散的に点94を配置した場合を想定する。円プロットは監視カメラ43aのみから見える単位球90上の点を示し、四角プロットは監視カメラ43bのみから見える点を示し、三角プロットは監視カメラ43a及び43bから同時に見える点を示す。
重複評価部32は、複数の監視カメラ43a及び43bから同時に可視と判定された点94の総数と複数の監視カメラ43a及び43bのいずれかから可視と判定された点94の総数との割合に応じて評価値を算出してよい。
重複評価部32は、複数の監視カメラ43a及び43bのいずれかから可視と判定された点94の総数と単位球90に配置した点94の総数との割合に応じて評価値を算出してよい。
単位球90に代えて、図8の(b)に示すような凹凸のあるオブジェクト92の表面上に離散的に点94を配置し、同様に評価値を算出してもよい。
また、重複評価部32は、評価地点から複数の監視カメラ43の位置までの方向を監視カメラ43毎に求め、これらの方向のなす角度に応じて評価値を算出してもよい。
例えば、複数の監視カメラ43が2台である場合には、評価地点から監視カメラ43の位置までの方向のなす角の正弦関数又は余弦関数の値を評価値として算出してよい。
また、例えば複数の監視カメラ43が3台以上である場合には、これらの監視カメラ43のうち一対の監視カメラ43の全ての組み合わせについて、評価地点から位置までの方向のなす角の正弦関数又は余弦関数をそれぞれ求め、これらの平均値、最小値、最大値、中間値などを評価値として算出してよい。
図1を参照する。画像生成部33は、監視空間40の3次元モデルを表す構造物情報22に基づいて監視空間40を表す仮想画像を生成する。画像生成部33は、重複空間算出部31による重複空間の算出結果に基づいて、仮想画像上に重複空間の位置及び形状を表示する。画像生成部33は、可視空間算出部30による可視空間の算出結果に基づいて仮想画像上に可視空間を表示してもよい。
画像生成部33は、重複評価部32が算出した評価値に応じた表示態様で、仮想画像上に重複空間を表示する。
図10の(a)は、画像生成部33により生成される監視空間40を表す仮想画像100の第1例の概略説明図である。簡単のため構造物41及び42を省略している。図10の(b)においても同様である。図10の(a)の仮想画像100の例では、監視空間40内における監視カメラ43a及び43bの各々の可視空間Sa及びSbと、これらが重複する重複空間Sopの位置及び形状が表示されている。
例えば画像生成部33は、重複空間Sopの表示態様として重複空間Sopの色彩、明度、ハッチングパターンなどを評価値に応じて設定してよい。
重複空間Sop内に評価地点を1個だけ設定した場合には、画像生成部33は、この評価地点における評価値に応じて重複空間Sopの表示態様を設定してよい。
重複空間Sop内に複数の評価地点を設定した場合には、画像生成部33は、この評価地点における評価値の平均値、最大値、最小値、中間値に応じて重複空間Sopの表示態様を設定してよい。
また画像生成部33は、図10の(b)の仮想画像100の第2例のように、重複空間Sopに配置した複数の評価地点の各々における評価値に応じて当該評価地点の色彩や明度を設定してよい。
重複評価部32は、評価地点の間の中間の地点の評価値を、例えば、当該地点の周りの評価地点の評価値を補間して求めてよい。画像生成部33は、補間により求めた評価値に応じて、評価地点の中間の地点の色彩や明度を設定してよい。画像生成部33は、当該地点の周りの評価地点の色彩や明度を補間して、評価地点の中間の地点の色彩や明度を設定してもよい。
(動作)
以下、図11を参照して、実施形態のカメラ配置評価方法の一例を説明する。
ステップS1では、監視カメラの可視空間及びその重複空間を算出するのに先だって、監視空間40に存在する構造物の構造物情報22を取得または生成して、カメラ配置評価装置1の記憶部2に設定登録する。
ステップS2では、複数の監視カメラ43a及び43bの位置や、撮影方向、画角、アスペクト比、解像度、焦点距離などといったカメラ情報21を取得して、カメラ配置評価装置1の記憶部2に設定登録する。
ステップS3において可視空間算出部30は、監視カメラ43a及び43bの各々の可視空間Sa及びSbを算出する。
ステップS4において重複空間算出部31は、監視カメラ43a及び43bの各々の可視空間Sa及びSbどうしが重複する重複空間Sopを算出する。
ステップS5において重複評価部32は、重複空間Sop内の代表地点として1個又は複数の評価地点を監視空間Sop内に設定する。
ステップS6において重複評価部32は、評価地点から監視カメラ43a及び43bの位置までのそれぞれの方向に応じて重複空間Sopの撮影状態の評価値を算出する。
ステップS7において画像生成部33は、監視空間40の3次元モデルを表す構造物情報22に基づいて監視空間40を表す仮想画像100を生成する。画像生成部33は、重複評価部32が算出した評価値に応じた表示態様で、仮想画像100上に重複空間Sopを表示する。出力装置5は、仮想画像100を出力する。
(実施形態の効果)
(1)記憶部2は、複数の監視カメラ43a及び43bの位置、画角及び撮影方向を表すカメラ情報21を記憶する。可視空間算出部30は、カメラ情報21に基づいて、監視空間における複数の監視カメラ43a及び43bの可視空間Sa及びSbをそれぞれ算出する。重複評価部32は、可視空間Sa及びSbどうしの重複空間Sopを求め、重複空間Sop内の所定の評価地点から複数の監視カメラ43a及び43bの位置までのそれぞれの方向Dra及びDrbに応じて重複空間Sopの撮影状態の評価値を算出する。
これにより、複数の監視カメラ43a及び43bによる重複空間Sopの撮影状態を評価することができる。例えば、複数の監視カメラ43a及び43bが互いに近い方向から重複空間Sopを撮影しているのか、又は全く異なる方向から撮影しているのかを評価できる。
(2)重複評価部32は、評価地点に所定形状の3次元モデルを配置して、カメラ情報21に基づいて監視カメラ43a及び43bごとに3次元モデルの表面の可視領域を算出し、可視領域の重複領域の面積と可視領域の論理和領域の面積との割合に応じて評価値を算出する。
これにより、重複領域Sop内に存在する監視対象を複数の監視カメラ43a及び43から見た可視領域の重複度合いに応じて評価値を算出できる。
(3)重複評価部32は、評価地点に所定形状の3次元モデルを配置して、カメラ情報21に基づいて監視カメラ43a及び43bごとに3次元モデルの表面の可視領域を算出し、可視領域の論理和領域の面積と3次元モデルの表面積の割合に応じて評価値を算出する。
これにより、重複領域Sop内に存在する監視対象を複数の監視カメラ43a及び43から見た可視領域が、どの程度の監視対象をカバーしているかに応じて評価値を算出できる。
(4)重複評価部32は、評価地点から監視カメラ43a及び43bの位置までの方向Dra及びDrbを監視カメラ43a及び43bごとに求め、これらの方向どうしがなす角度に応じて評価値を算出する。
これにより、複数の監視カメラ43a及び43bが互いに近い方向から重複空間Sopを撮影しているのか、又は全く異なる方向から撮影しているのかを評価できる。
(5)重複評価部32は、評価地点に所定形状の3次元モデルを配置して、カメラ情報に基づいて3次元モデルの表面の各位置について可視判定を監視カメラ43a及び43bごとに行い、複数の監視カメラ43a及び43bから同時に可視と判定された位置の総数と複数の監視カメラ43a及び43bのいずれかから可視と判定された位置の総数との割合に応じて評価値を算出する。
これにより、重複領域Sop内に存在する監視対象を複数の監視カメラ43a及び43から見た可視領域の重複度合いに応じて評価値を算出できる。
(6)重複評価部32は、評価地点に所定形状の3次元モデルを配置して、カメラ情報に基づいて3次元モデルの表面の各位置について可視判定を監視カメラ43a及び43bごとに行い、複数の監視カメラ43a及び43bのいずれかから可視と判定された位置の総数と3次元モデルに配置した位置の総数との割合に応じて評価値を算出する。
これにより、重複領域Sop内に存在する監視対象を複数の監視カメラ43a及び43から見た可視領域が、どの程度の監視対象をカバーしているかに応じて評価値を算出できる。
(7)記憶部2は、監視空間40の3次元モデルをさらに記憶する。画像生成部33は、3次元モデルに基づいて生成された監視空間40を表す仮想画像100上に、各監視カメラ43a及び43bの重複空間Sopを表した画像を生成し、評価値に応じて重複空間Sopの表示を設定する。
これにより、複数の監視カメラ43a及び43bによる重複空間Sopの撮影状態を提示した仮想画像100を生成できる。
(8)重複評価部32は、重複空間Sop内の複数の評価地点において評価値をそれぞれ算出し、算出した各評価値を用いて複数の評価地点の間の地点における評価値を算出する。
これにより、離散的な評価地点の間の中間の地点の評価値を算出することができる。
1…カメラ配置評価装置、2…記憶部、3…制御部、4…入力装置、5…出力装置、20…カメラ配置評価プログラム、21…カメラ情報、22…構造物情報、30…可視空間算出部、31…重複空間算出部、32…重複評価部、33…画像生成部、34…角錐重複空間算出部、35…境界面算出部、40…監視空間、41、42…構造物、43a、43b…監視カメラ、Sa、Sb…範囲、Sop…監視空間

Claims (10)

  1. 複数のカメラの位置、画角及び撮影方向を含むカメラ情報を記憶する記憶部と、
    前記カメラ情報に基づいて、監視空間における前記複数のカメラの可視空間をそれぞれ算出する可視空間算出部と、
    前記可視空間どうしの重複空間を求め、該重複空間内の評価地点から前記複数のカメラの位置までのそれぞれの方向に応じて該重複空間の撮影状態の評価値を算出する重複評価部と、
    を備えることを特徴とするカメラ配置評価装置。
  2. 前記重複評価部は、前記評価地点に所定形状の3次元モデルを配置して、前記カメラ情報に基づいて前記カメラごとに当該3次元モデルの表面の可視領域を算出し、当該可視領域の重複領域の面積と当該可視領域の論理和領域の面積との割合に応じて前記評価値を算出することを特徴とする請求項1に記載のカメラ配置評価装置。
  3. 前記重複評価部は、前記評価地点に所定形状の3次元モデルを配置して、前記カメラ情報に基づいて前記カメラごとに当該3次元モデルの表面の可視領域を算出し、当該可視領域の論理和領域の面積と当該3次元モデルの表面積の割合に応じて前記評価値を算出することを特徴とする請求項1に記載のカメラ配置評価装置。
  4. 前記重複評価部は、前記評価地点から前記カメラの位置までの方向を前記カメラごとに求め、当該方向どうしがなす角度に応じて前記評価値を算出することを特徴とする請求項1に記載のカメラ配置評価装置。
  5. 前記重複評価部は、前記評価地点に所定形状の3次元モデルを配置して、前記カメラ情報に基づいて当該3次元モデルの表面の各位置について可視判定を前記カメラごとに行い、複数のカメラから同時に可視と判定された前記位置の総数と複数のカメラのいずれかから可視と判定された前記位置の総数との割合に応じて前記評価値を算出することを特徴とする請求項1に記載のカメラ配置評価装置。
  6. 前記重複評価部は、前記評価地点に所定形状の3次元モデルを配置して、前記カメラ情報に基づいて当該3次元モデルの表面の各位置について可視判定を前記カメラごとに行い、複数のカメラのいずれかから可視と判定された前記位置の総数と前記3次元モデルに配置した前記位置の総数との割合に応じて前記評価値を算出することを特徴とする請求項1に記載のカメラ配置評価装置。
  7. 前記記憶部は、前記監視空間の3次元モデルをさらに記憶し、
    前記3次元モデルに基づいて生成された前記監視空間を表す仮想画像上に、前記各カメラの前記重複空間を表した画像を生成し、前記評価値に応じて前記重複空間の表示を設定する画像生成部を更に備えることを特徴とする請求項1〜請求項6の何れか一項に記載のカメラ配置評価装置。
  8. 前記重複評価部は、前記重複空間内の複数の前記評価地点において前記評価値をそれぞれ算出し、算出した当該各評価値を用いて前記複数の評価地点の間の地点における評価値を算出することを特徴とする請求項1〜請求項7の何れか一項に記載のカメラ配置評価装置。
  9. コンピュータに、
    複数のカメラの位置、画角及び撮影方向を含むカメラ情報を記憶装置から読み出す情報読出ステップと、
    前記カメラ情報に基づいて、監視空間における前記複数のカメラの可視空間をそれぞれ算出する可視空間算出ステップと、
    前記可視空間どうしの重複空間を求め、該重複空間内の評価地点から前記複数のカメラの位置までのそれぞれの方向に応じて該重複空間の撮影状態の評価値を算出する重複評価ステップと、
    を実行させることを特徴とするカメラ配置評価方法。
  10. コンピュータに、
    複数のカメラの位置、画角及び撮影方向を含むカメラ情報を記憶装置から読み出す情報読出ステップと、
    前記カメラ情報に基づいて、監視空間における前記複数のカメラの可視空間をそれぞれ算出する可視空間算出ステップと、
    前記可視空間どうしの重複空間を求め、該重複空間内の評価地点から前記複数のカメラの位置までのそれぞれの方向に応じて該重複空間の撮影状態の評価値を算出する重複評価ステップと、
    を実行させることを特徴とするコンピュータプログラム。
JP2019126887A 2019-07-08 2019-07-08 カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム Active JP7332363B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019126887A JP7332363B2 (ja) 2019-07-08 2019-07-08 カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019126887A JP7332363B2 (ja) 2019-07-08 2019-07-08 カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2021013111A true JP2021013111A (ja) 2021-02-04
JP7332363B2 JP7332363B2 (ja) 2023-08-23

Family

ID=74226880

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019126887A Active JP7332363B2 (ja) 2019-07-08 2019-07-08 カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP7332363B2 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208387A (ja) * 2006-01-31 2007-08-16 Matsushita Electric Ind Co Ltd センサー配置装置、センサー制御装置およびセンサー制御システム
WO2014002398A1 (ja) * 2012-06-28 2014-01-03 日本電気株式会社 カメラ位置姿勢評価装置、カメラ位置姿勢評価方法およびカメラ位置姿勢評価プログラム
WO2014087620A1 (ja) * 2012-12-06 2014-06-12 日本電気株式会社 視界表示システム、視界表示方法および視界表示プログラム
JP2018120283A (ja) * 2017-01-23 2018-08-02 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007208387A (ja) * 2006-01-31 2007-08-16 Matsushita Electric Ind Co Ltd センサー配置装置、センサー制御装置およびセンサー制御システム
WO2014002398A1 (ja) * 2012-06-28 2014-01-03 日本電気株式会社 カメラ位置姿勢評価装置、カメラ位置姿勢評価方法およびカメラ位置姿勢評価プログラム
WO2014087620A1 (ja) * 2012-12-06 2014-06-12 日本電気株式会社 視界表示システム、視界表示方法および視界表示プログラム
JP2018120283A (ja) * 2017-01-23 2018-08-02 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム

Also Published As

Publication number Publication date
JP7332363B2 (ja) 2023-08-23

Similar Documents

Publication Publication Date Title
JP6996594B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20140218354A1 (en) View image providing device and method using omnidirectional image and 3-dimensional data
US20100328308A1 (en) Three Dimensional Mesh Modeling
US20120039526A1 (en) Volume-Based Coverage Analysis for Sensor Placement in 3D Environments
US11490062B2 (en) Information processing apparatus, information processing method, and storage medium
JP6310149B2 (ja) 画像生成装置、画像生成システム及び画像生成方法
CN105264566A (zh) 建模装置、三维模型生成装置、建模方法、程序和布局模拟器
JP6174968B2 (ja) 撮像シミュレーション装置
JP2018206025A (ja) 情報処理装置、情報処理方法
JPWO2019171824A1 (ja) 撮影装置、撮影方法及び撮影プログラム並びに撮影システム
KR20110088995A (ko) 3차원 모델 안에서 감시 카메라 영상을 시각화하기 위한 방법 및 시스템, 및 기록 매체
JP7184249B2 (ja) 避雷保護範囲生成システムおよびプログラム
JP7332363B2 (ja) カメラ配置評価装置、カメラ配置評価方法、及びコンピュータプログラム
WO2019171823A1 (ja) 撮影評価マップ、撮影評価マップ生成装置、撮影評価マップ生成方法及び撮影評価マップ生成プログラム
JP7311327B2 (ja) 撮影シミュレーション装置、撮影シミュレーション方法およびコンピュータプログラム
JP2001184526A (ja) 3次元形状データにおける面生成方法
JP6876657B2 (ja) 撮影状況予測装置、撮影状況予測方法および監視エリア変更方法
CN113674356A (zh) 相机筛选方法及相关装置
CN111445574A (zh) 一种视频监控设备布控方法、装置及系统
JP6526605B2 (ja) 仮想カメラ画像生成装置
JPWO2011111095A1 (ja) ハレーションシミュレーション方法、装置、及びプログラム
JP7303147B2 (ja) カメラ配置評価装置、カメラ配置評価方法、及びカメラ配置評価プログラム
JP7285101B2 (ja) 設置支援装置及び設置支援プログラム
CN114529604B (zh) 一种空间物体定向碰撞检测方法、系统装置及介质
JP7303149B2 (ja) 設置支援装置、設置支援方法、及び設置支援プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220519

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230720

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230801

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230810

R150 Certificate of patent or registration of utility model

Ref document number: 7332363

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150